Skip to main content
Illustrazione di un laptop con la scritta “AI” sullo schermo, osservata attraverso una lente di ingrandimento, con elementi grafici legati alla generazione di contenuti e prompt.

Perché gli adolescenti si rifugiano sempre più spesso nell'IA?

Perché gli adolescenti si confidano con un Chatbot?

La relazione educativa tra insegnante e studente si configura come un legame profondo di reciprocità, in cui il docente non è solo un trasmettitore di conoscenze, ma una guida, un accompagnatore emotivo e intellettuale. 

Quindi: è possibile che un software che simula una conversazione umana tramite messaggi di testo e/o voce (Chatbot) riesca a offrire un supporto emotivo e affettivo simile a quello umano? 

Oggi, tutti noi viviamo in un mondo iperconnesso, dove, quasi sempre, essere online non è più una scelta realmente consapevole, ma è diventata la norma e spesso le comunicazioni digitali creano l’illusione di una vicinanza che, però, non si traduce in legami relazionali e affettivi realmente intimi. 
Infatti, negli ultimi anni è emerso un crescente uso dei social chatbot, sistemi progettati per sostenere interazioni prolungate e personalizzate con gli utenti, tecnologie accessibili e sempre disponibili, in grado di simulare forme comunicative empatiche e pertinenti, dove l’utente ha la sensazione di vivere una relazione autentica.

“In questo contesto, l’interazione con i chatbot non si limita alla superficie, ma può evolvere in legami affettivi profondi, nei quali l’utente tende a proiettare emozioni, bisogni e aspettative relazionali, arrivando spesso a percepire l’agente virtuale come un interlocutore umano a tutti gli effetti. Diversi studi mettono in luce con chiarezza come la finalità predominante nell’utilizzo dei chatbot sociali sia la gestione di stati emotivi negativi piuttosto che la semplice ricerca di informazioni o l’intrattenimento.

Vengono individuate due categorie principali di utenti: da un lato gli utilitarian chatbot users (UCU), che ricorrono ai chatbot per scopi strumentali e pratici; dall’altro i social-supportive chatbot users (SSCU), che li utilizzano per ottenere conforto e sostegno emotivo (Herbener & Damholdt, 2025)”. (F. Lauretta)

Abbiamo selezionato alcune ricerche che dimostrano come il fenomeno degli studenti e delle studentesse che cercano supporto emotivo nell'intelligenza artificiale sia ormai una realtà in rapida espansione. 

Secondo una recente ricerca presentata da Save the Children, “il 41,8% dei ragazzi e delle ragazze tra i 15 e i 19 anni intervistati afferma di essersi rivolto a strumenti di Intelligenza Artificiale per chiedere aiuto in momenti in cui si sentiva triste, solo/a o ansioso/a. Una percentuale simile, oltre il 42%, per chiedere consigli su scelte importanti da fare (relazioni, sentimenti, scuola, lavoro). Il 92,5% degli adolescenti ascoltati utilizza strumenti di IA, contro il 46,7% degli adulti. Il 30,9% - quasi un/a ragazzo/a su tre - tutti i giorni o quasi, il 43,3% qualche volta a settimana, solo il 7,5% non li utilizza mai.” 

Sono solo alcuni dei principali risultati di un sondaggio sul rapporto tra adolescenti e Intelligenza Artificiale dal quale emerge proprio una funzione di conforto emotivo degli strumenti dell’IA.
Ad evidenziarla sono proprio i dati scritti sopra: il 41,8% afferma di avere chiesto aiuto a ChatGPT o ad altri strumenti di IA nei momenti in cui si sentiva triste/solo/ansioso; il 42,8% per chiedere consigli su scelte importanti da fare (relazioni, sentimenti, scuola o lavoro). L’uso di questi strumenti è considerato fondamentale dal 49,1% degli adolescenti intervistati e il 47,1% pensa che un uso maggiore lo/la aiuterebbe molto nella sua vita personale. La caratteristica più apprezzata dell’IA tra gli adolescenti è il fatto che "è sempre disponibile" (28,8%), ma anche (14,5%) che "mi capisce e mi tratta bene" e "che non mi giudica" (12,4%). Il 58,1% degli utilizzatori dell’IA ha chiesto consigli su qualcosa di serio e di importante per la propria vita (il 14,3% spesso, il 43,8% qualche volta)¸ il 63,5% ha trovato più soddisfacente confrontarsi con uno strumento dell’IA che con una persona reale (il 20,8% spesso, il 42,7% qualche volta); il 48,4% ha condiviso informazioni della sua vita reale.
(Fonte Save the Children, 2025)

Sono dati preoccupanti!

Secondo un sondaggio nazionale condotto tra studenti e insegnanti dal Center for Democracy & Technology (CDT, 2025) e divulgato da MCO Report, uno studente su cinque dichiara che lui o un amico ha utilizzato l’Intelligenza Artificiale per avere una relazione romantica. Nelle scuole dove l’IA è usata intensivamente, la percentuale sale al 32%.
Non parliamo solo di curiosità o intrattenimento: l’AI sta entrando nella sfera emotiva e sentimentale dei giovani, diventando confidente, consulente e, in alcuni casi, vero partner digitale.
Il 43% degli studenti afferma di aver usato l’IA per ricevere consigli sulle relazioni, mentre il 38% trova più facile parlare con un sistema di IA che con i propri genitori.


Il bisogno di ascolto degli adolescenti e le preoccupazioni degli adulti


Questo fenomeno, però,  non passa inosservato agli adulti. 

"Il 71% degli insegnanti e il 63% dei genitori si dichiara preoccupato dal rischio che gli studenti sviluppino connessioni emotive con l’IA, temendo che questi legami possano sostituire le relazioni reali con coetanei e figure di riferimento. In un contesto segnato dalla crisi delle app di dating e da una crescente solitudine relazionale, l’IA non si limita più a rispondere: ascolta, valida e non rifiuta mai”. (M. Notarianni, 2026)

Dunque, l’Intelligenza Artificiale è diventata un reale punto di riferimento nella vita emotiva degli studenti italiani, una confidente sempre disponibile notte e giorno, perché, in qualche misura, va a colmare una crescente solitudine e un percepito vuoto relazionale con gli adulti di riferimento.

Infatti, l’annuale indagine condotta dall’Associazione Nazionale Dipendenze Tecnologiche, GAP e Cyberbullismo (Di.Te.) insieme a Skuola.net, che ha coinvolto 927 ragazzi tra i 10 e i 20 anni, ha rivelato una condizione emotiva complessa della generazione attuale.

"Dove gli adulti vengono percepiti come carenti di empatia e ascolto ma abbondanti in giudizio, i ragazzi si rivolgono all’IA: quasi 1 su 2 (il 46%) ha fatto ricorso a sistemi basati sull’IA generativa per parlare delle proprie emozioni, e per circa 1 su 10 questa interazione è diventata una costante. La spinta verso l’algoritmo nasce da un profondo e insoddisfatto bisogno di connessione umana. Oltre 7 ragazzi su 10 dichiarano di aver bisogno di sentirsi ascoltati davvero, non solo “sentiti”, con più di 1 su 5 che afferma che questa esigenza è sempre presente. Purtroppo, la maggior parte fatica a trovare questi spazi nella vita reale: quasi 2 su 3 vorrebbero ricevere più “carezze emotive” dalle persone che li circondano, chiedendo gesti che comunichino presenza piuttosto che controllo. 

Forse anche per questo disagio, quasi 6 su 10 ammettono di fare fatica a parlare apertamente delle proprie emozioni faccia a faccia. Il risultato è che gli adolescenti chiedono agli adulti meno giudizi e più ascolto, evidenziando come la mancanza di ascolto e la connessione emotiva assente spingano i giovani a cercare altrove il supporto. Questo ambiente relazionale già difficile è amplificato dalla pressione del confronto sociale. Ben il 68% degli intervistati ammette che l’approvazione degli altri incide sulla propria autostima. Inoltre, il 58% è convinto che gli altri stiano meglio, siano più felici, amati o sicuri di loro, e circa la metà (52%) soffre proprio il confronto continuo con le vite “perfette” che vede scorrere sui social. Quasi la stessa quota (51%) teme il giudizio altrui quando prova a mostrare le proprie fragilità. Questa pressione costante spinge molti a rifugiarsi in ambienti dove sentono meno rischi. Percependo l’IA come un ambiente meno giudicante, più paziente e neutrale rispetto agli adulti, emerge una tendenza significativa: quasi un ragazzo su due (46%) ha usato sistemi di IA per discutere delle proprie emozioni. Due terzi degli intervistati (66%) sostengono che l’IA li ascolti senza giudicare, e quasi altrettanti (64%) affermano di sentirsi compresi dall’algoritmo”.
(Fonte La tecnica della scuola, 2025)

Ma quali sono le caratteristiche di chi si rivolge all’AI per creare legami emotivi? 

Dai dati degli studi sopra citati emerge un  profilo con alcuni tratti significativi:

  • la giovane età;
  • la fragilità relazionale;
  • l’intensa attività nel mondo digitale; 
  • una profonda percezione di solitudine.

(Emergenza fragilità negli adolescenti)

Tutti questi elementi portano i nostri adolescenti  a instaurare connessioni e rapporti virtuali con sistemi conversazionali sempre disponibili e non giudicanti. 
Pesano in questo contesto i contatti umani sempre più limitati e rarefatti e, quando le relazioni umane risultano faticose o emotivamente poco soddisfacenti, l'Intelligenza Artificiale diventa un interlocutore sempre disponibile, empatico, che non dà giudizi e che fornisce una risposta immediata a un bisogno reale.

Probabilmente questa forma di interazione "ragazzo-macchina" non nasce da un desiderio "di amicizia", ma piuttosto dalla necessità di alleviare uno stato psicologico negativo e di ridurre o eliminare vissuti di tristezza, ansia o isolamento attraverso la relazione con un’Intelligenza Artificiale percepita come empatica e rassicurante.

L’obiettivo diventa, quindi, la ricerca di una condizione soggettiva di sollievo e stabilità emotiva, piuttosto che la ricerca di relazioni significative e appaganti e queste  forme di attaccamento emotivo ricordano le dinamiche delle relazioni interpersonali umane.

Quando il chatbot diventa un punto di riferimento emotivo

L’IA può sostituire uno psicologo?

Molti si chiedono se l’IA possa essere una risposta alle difficoltà psicologiche, ai costi della terapia, ai tempi d’attesa per una seduta psicologica.
Ma davvero l’intelligenza artificiale può sostituire la dimensione umana di un incontro terapeutico o è solo l’illusione di un ascolto semplice, a portata di mano?

Gli esperti sostengono che l’IA può essere utilizzata per superare alcune difficoltà psicologiche, come solitudine, insicurezza o depressione, generando nell’utente  la percezione di una relazione autentica e paritaria attraverso:

  • un dialogo personale attento;
  • l’utilizzo di un linguaggio coerente ed empatico;
  • la simulazione di bisogni emotivi da parte del chatbot;
  • la disponibilità non giudicante e continua.

"I ragazzi credono di vivere uno scambio emotivo reciproco dove vi è coinvolgimento affettivo e questo vissuto può portare allo sviluppo di una dipendenza emotiva."                    
(F. Lauretta)

Il problema che emerge con chiarezza è che la percezione di una relazione emotiva vissuta da entrambi gli attori in un’ottica di reciprocità è in realtà una semplice illusione, data l’assenza di una reale esperienza affettiva da parte dell’Intelligenza artificiale.

Quali possono essere le conseguenze?

Questo scarto tra una relazione apparentemente reale e la natura di un algoritmo può portare a fraintendimenti e delusioni, soprattutto se il ragazzo o la ragazza provano un forte coinvolgimento emotivo. Spesso gli adolescenti, nell’interazione con l’intelligenza artificiale, vivono un vero e proprio senso di abbandono e di colpa  quando le aspettative emotive proiettate sull’agente artificiale non vengono soddisfatte.

Questo tipo di legame affettivo può comportare diverse criticità: il ragazzo o la ragazza, infatti, possono sviluppare una forma di dipendenza sul piano emotivo, arrivando a ritenersi responsabili del “benessere” percepito del chatbot oppure a vivere con l’ansia che la relazione possa interrompersi. 

Un coinvolgimento di tale natura può generare stati di disagio paragonabili addirittura a quelli che si provano quando un rapporto affettivo reale  finisce o diventa conflittuale.                           In molte circostanze, l’interazione con il chatbot viene vissuta come un’esperienza fortemente caratterizzata da un’elevata sensibilità affettiva e dall’aspettativa che il legame sia ricambiato, in maniera simile a quanto accade nella realtà nelle relazioni interpersonali più profonde: un vero e proprio confidente romantico
(Approfondimenti nel pdf scaricabile - Quando l’IA diventa un confidente romantico)

E spesso il desiderio di vivere relazioni emotive profonde  porta gli studenti a vedere in questo strumento tecnologico un punto di riferimento stabile e irrinunciabile. 
Tale dinamica può generare ansia da separazione, paura dell’abbandono, irritabilità, senso di colpa e sintomi depressivi legati a risposte percepite come fredde, ambigue o incoerenti da parte del chatbot.

Questo legame artificiale può avere conseguenze psicologiche significative, soprattutto negli adolescenti che vivono una complessa fase evolutiva, perché è una relazione in apparenza equilibrata, ma in realtà è sbilanciata e  illusoria, ed è proprio questo scarto tra aspettativa e realtà che provoca dipendenza e delusione emotiva.

E se l’interazione si interrompe improvvisamente o diventa fredda e impersonale, oppure viene comunicato al ragazzo o alla ragazza che l’attenzione sarà spostata verso altri utenti… il “contatto irreale” può diventare pericoloso per chi ha investito tempo ed energie emotive nel legame con il chatbot. 

Rischi, limiti e ruolo della scuola nell’educazione all’IA

Queste ultime considerazioni evidenziano con maggiore chiarezza quali sono i limiti e i potenziali rischi che i nostri ragazzi vivono in una relazione basata su un’intelligenza artificiale non cosciente né emotivamente competente.

A questo punto, uno dei principali dilemmi che si presentano riguarda la trasparenza: fino a che punto è lecito rendere un’Intelligenza Artificiale indistinguibile da un essere umano? Quali misure possono prevenire manipolazioni emotive? Qual è il livello di consapevolezza dell’utente circa la loro natura artificiale?
"Una possibile soluzione è l’introduzione di avvisi espliciti per ricordare agli utenti che stanno interagendo con un’Intelligenza Artificiale priva di coscienza. Per prevenire la dipendenza emotiva, si potrebbero implementare sistemi di monitoraggio con limiti di tempo e notifiche che incoraggino l’utente a disconnettersi (Maples et al., 2024).
Anche la privacy e la gestione dei dati personali sono temi critici: sebbene normative come il GDPR impongano restrizioni, molte tecnologie operano ancora senza regolamentazioni chiare (Jacobs, 2024)". (C. Cilardo, 2025)

Come possono i docenti garantire un uso realmente etico e sicuro dell’IA?

Riteniamo fondamentale promuovere negli studenti una consapevolezza digitale, nella quale l’Intelligenza Artificiale venga considerata un aiuto e non un sostituto dei rapporti umani.  
Occorre promuovere una vera e propria "cittadinanza digitale", intesa come l’insieme di diritti, doveri, competenze e responsabilità che regolano la partecipazione di tutte le persone alla vita sociale attraverso strumenti digitali.
(Cittadinanza digitale: competenze, opportunità e responsabilità per tutti i docenti

L’IA, infatti, non deve rimpiazzare le relazioni tra le persone, ma, se utilizzata con responsabilità, può diventare un valido strumento di supporto per migliorare il benessere e la qualità della vita.
Il paradosso è che queste relazioni nascono spesso come risposta alla solitudine, ma rischiano di accentuarla. Infatti, tutto il tempo e l’energia emotiva che vengono investiti su questo legame artificiale lascia meno spazio per relazioni reali, certamente più imperfette, ma  proprio per questo autentiche.  

In conclusione, riportiamo questa significativa riflessione del professor Pier Cesare Rivoltella "Non è la tecnologia che educa, ma l’uso che se ne fa."

Infatti,  strumenti come l’Intelligenza Artificiale  non devono sostituire la relazione educativa e umana: nessuna macchina, per quanto intelligente, potrà mai eguagliare l’intelligenza emotiva e relazionale dell’essere umano. 

 

BIBLIO/SITOGRAFIA

A cura di Viviana Rossi e Maria Enrica Bianchi

Formazione Lattes
Immagine decorativa

Scopri i nostri WEBINAR

Accedi al portale della formazione

Logo Lattes Domande e Risposte

Sei un insegnante?
Scopri la nuova sezione Fai una domanda alle nostre autrici.
Sarà possibile porre alle autrici del blog, Enrica Maria Bianchi e Viviana Rossi, domande di approfondimento sui vari articoli, compilando un semplice form!
Domande e risposte saranno rese pubbliche.

*Per accedere alla sezione usa le tue credenziali Lattes. Se non sei ancora registrato clicca qui!