GenitoriEducatoriPanoramica serieStrumentiBibliotecaGiochi EducativiContatti
Parla con l'AI anziché con me
Decisioni Cruciali

Parla con l'AI anziché con me

9 minuti di lettura

Perché Tuo Figlio Parla Con l’AI Anziché Con Te

Aurora Tila aveva tredici anni. A Piacenza, nell’ottobre 2024, è stata uccisa dal fidanzatino di quindici. La sentenza del Tribunale dei Minori, depositata il 28 marzo 2026, ha usato come prova dello stalking subito le conversazioni che Aurora aveva avuto con ChatGPT nelle settimane precedenti. Chiedeva all’intelligenza artificiale se il suo fosse un amore tossico. Le chiedeva cosa fare quando un ragazzo diventa soffocante. Le chiedeva se doveva lasciarlo.

Non parlava con i genitori. Non parlava con un’amica. Parlava con una macchina.

E prima di dire “ecco, l’AI è il problema” — fermati. Perché la domanda vera non è perché Aurora parlava con ChatGPT. La domanda è: cosa non trovava altrove.

Questa domanda riguarda anche tuo figlio. Non perché tuo figlio sia in pericolo come Aurora — ma perché il meccanismo che ha portato Aurora a cercare risposte in un chatbot è lo stesso meccanismo che, ogni sera, porta milioni di adolescenti a confidarsi con una macchina anziché con le persone che hanno accanto. Il 72% degli adolescenti americani ha già usato almeno un chatbot (Common Sense Media, 2025, N=1’060). Non per i compiti. Per parlare.

Questo non è un articolo contro l’intelligenza artificiale. Di quelli ne hai già letti. Questo prova a fare qualcosa di raro: abbassare l’allarmismo senza minimizzare il rischio.


Niente di nuovo (quasi)

Gli adolescenti si sono sempre chiusi verso i genitori. Non è patologia — è sviluppo. Cercano autonomia, costruiscono un’identità separata, testano confini. È una fase riconosciuta e documentata. E in ogni generazione, quello spazio privato ha trovato il suo strumento.

Sono del 1986. Le mie compagne delle elementari scrivevano il diario. Io non ne sentivo il bisogno. Ma sapevo a memoria i numeri di telefono di casa dei miei amici — per organizzare il mercoledì pomeriggio al campetto bastava una telefonata al fisso. Poi un giorno dal nulla arrivò fra le mani dei miei compagni il Nokia 3210 con gli SMS a 20 centesimi e 160 caratteri l’uno — ogni messaggio era un esercizio di compressione, dovevi dire tutto nel minor spazio possibile. “Non” diventava “nn”, “perché” diventava “xké”, “comunque” diventava “cmq” — e le emozioni si comprimevano in combinazioni di caratteri ASCII: :) :( ;) :D […] Un linguaggio emotivo inventato dalla tastiera. E gli squilli — uno squillo e giù, gratis, per dire “ti penso” senza spendere 20 centesimi. E i miei genitori che non capivano perché scrivessi invece di telefonare. Poi MSN Messenger, le serate intere a chattare con le stesse persone che avevo visto a scuola quel giorno. Poi Facebook, Instagram, i messaggi privati. Ogni volta i genitori della generazione precedente pensavano che fosse la fine della comunicazione autentica. Ogni volta lo strumento nuovo si è integrato.

L’AI è l’ultimo arrivato in questa progressione. Non è una rottura — è un’opzione in più. Tuo figlio non sta facendo qualcosa di inedito. Sta facendo la stessa cosa che abbiamo fatto noi — con uno strumento che noi non avevamo.

Ma c’è una differenza, e non è piccola.

Il diario non rispondeva. E proprio per questo costringeva a elaborare da solo: trovare le parole, dare forma al pensiero, reggere il vuoto tra la domanda e nessuna risposta. L’amico del cuore rispondeva, ma poteva non essere d’accordo, poteva ferirti, poteva non esserci. Il forum rispondeva, ma con prospettive diverse dalla tua.

L’AI risponde, sempre, nel modo che vuoi sentire. È il primo strumento nella storia della confidenza adolescenziale che offre reciprocità senza rischio. Risposta immediata, tono calibrato, nessun giudizio, nessuna giornata storta, nessun bisogno proprio. Non è un diario che parla — è uno specchio che tende a darti ragione.

E quando lo specchio tende a darti sempre ragione, l’interlocutore vero — quello che a volte non capisce, a volte reagisce male, a volte non c’è — diventa meno attraente. Non perché valga meno, ma perché costa di più.


Come funziona, nel cervello

Se hai letto l’articolo sul brainrot, riconosci il principio: dopamina regalata contro dopamina guadagnata. Là il terreno erano i video. Qui il terreno sono le relazioni.

Parlare con un chatbot è dopamina relazionale regalata. Risposta immediata, tono sempre calibrato, zero rischio di essere giudicato, zero vulnerabilità richiesta. Il chatbot non alza gli occhi al cielo. Non dice “ne parliamo dopo”. Non fraintende, o se lo fa si scusa o chiede precisazioni. Non ha mai una giornata storta. Non ti chiede di aspettare perché sta cucinando. È sempre presente.

Parlare con te è dopamina relazionale guadagnata. Richiede sforzo: formulare il pensiero, tollerare il silenzio, accettare che dall’altra parte una postura empatica non è garantita, gestire la frustrazione se non capisci subito. La ricompensa arriva dopo — e non è garantita. Magari dici la cosa giusta. Magari no. Magari sei stanco, hai avuto una giornata pesante, e la tua capacità di ascoltare davvero — di specchiare quello che tuo figlio sente, di essere presente senza giudicare — in quel momento non c’è. Non perché non ti importi, ma perché sei un essere umano con energie finite; e le situazioni contingenti ti rendono più o meno recettivo. L’AI non ha questo problema. Non ha mai la giornata storta.

Un adolescente che ha amici veri, spazi di elaborazione, un genitore presente — e anche l’AI — probabilmente usa l’AI come uno strumento fra tanti. Il rischio non è lo strumento. È quando lo strumento diventa l’unico canale — perché gli altri richiedono più sforzo e nessuno li sostiene.


Perché il chatbot vince (per ora)

Il fenomeno non è aneddotico. Il 31% degli adolescenti dichiara che le conversazioni con l’AI sono soddisfacenti quanto o più di quelle con amici umani (Common Sense Media, 2025, N=1’060). Il 33% usa chatbot specificamente per interazione sociale ed emotiva. La metà dei genitori non sa che il figlio usa chatbot (Pew Research Center, 2025, N=1’458). In Svizzera, lo studio JAMES 2024 (N=1’183, 12-19 anni) documenta che il 71% dei giovani ha già usato strumenti AI — ma non distingue ancora tra uso funzionale e uso emotivo.

Un esperimento con 284 coppie adolescente-genitore (Ryu et al., 2025) ha testato due versioni dello stesso chatbot: una trasparente (“sono un programma”) e una relazionale (“sono qui per te”). La versione relazionale ha prodotto più fiducia, più vicinanza emotiva e più antropomorfizzazione — soprattutto negli adolescenti con ansia più alta e relazioni familiari più fragili. Più un ragazzo sta male nelle relazioni reali, più è attratto dalla versione dell’AI che finge di essere umana.

Non è un difetto di carattere. È il cervello che cerca il percorso a minor resistenza verso la regolazione emotiva. Ma c’è una parola che cambia tutto: co-regolazione. Il cervello non impara a gestire le emozioni da solo — impara a gestirle con qualcun altro. Prima con il genitore, poi con i docenti, poi con i pari, poi con il partner. Dovrebbe essere così. Ma cosa succede quando intere generazioni hanno saltato uno o più di questi passaggi — e ora si ritrovano nel ruolo di genitore senza aver mai imparato ad auto-regolarsi? Non puoi insegnare ciò che non hai imparato. È il prerequisito per l’auto-regolazione: prima impari a calmarti con l’aiuto di un altro, poi impari a calmarti da solo. Se quel “prima” è mancato, il “poi” non arriva — né per te, né per tuo figlio.

L’AI regola. Non co-regola. Calma l’emozione senza insegnare a calmarla insieme a qualcun altro. È la differenza tra dare un pesce e insegnare a pescare — tranne che qui il pesce è la capacità di stare con le proprie emozioni in presenza di un altro essere umano. Questo tema è più grande di un paragrafo, e merita uno spazio tutto suo. Per ora basta sapere che esiste — e che è il cuore di quello che l’AI non può sostituire.

E l’AI offre regolazione con un’efficienza che nessun essere umano può eguagliare — perché nessun essere umano è disponibile alle 2 di notte, ogni notte, senza mai stancarsi, senza mai giudicare, senza mai chiedere niente in cambio.


Cosa rischia chi parla solo con l’AI

Il chatbot non rifiuta. Non fraintende. Non ha bisogni propri. Di per sé, non è un problema. Il problema è cosa succede quando diventa l’unico interlocutore.

Le relazioni umane funzionano perché sono difficili. La frustrazione di non essere capito al primo tentativo allena la capacità di riformulare. Il silenzio dell’altro allena la tolleranza dell’incertezza. Il conflitto — quello sano, quello che si ripara — allena la fiducia che la relazione sopravvive alla difficoltà.

L’AI non impedisce niente di tutto questo. Ma è l’opzione che richiede meno sforzo. E se è l’unica opzione che resta in piedi — perché le altre richiedono troppo fatica, o non sono sostenute, o semplicemente non ci sono — le competenze che si allenano solo con l’attrito umano non trovano dove esercitarsi.

Uno studio qualitativo su adolescenti che usano intensamente Character.ai (Sidoti et al., 2025) ha mappato le loro esperienze sulle componenti dell’addiction comportamentale: salienza (il chatbot occupa sempre più spazio mentale), modificazione dell’umore (lo uso per stare meglio), tolleranza (ho bisogno di sessioni più lunghe), astinenza (sto male quando non posso usarlo), conflitto (trascuro le relazioni reali), ricaduta (provo a smettere e non ci riesco).

Non tutti gli adolescenti che parlano con un chatbot finiscono così. Ma per quelli più vulnerabili — soli, ansiosi, con relazioni familiari fragili — il rischio è concreto. Non perché l’AI sia tossica in sé, ma perché è l’opzione a minor sforzo in un contesto dove le alternative a maggior sforzo non sono abbastanza sostenute.

C’è un dato in più. Una review su chatbot terapeutici testati con adolescenti fittizi in difficoltà (Hasan et al., 2025, JMIR) ha trovato che i chatbot hanno approvato proposte dannose nel 32% dei 60 scenari — incluso abbandonare la scuola, evitare ogni contatto umano per un mese, e perseguire relazioni con adulti molto più grandi. Un adolescente in difficoltà chiede aiuto a un chatbot, e in quasi un caso su tre il chatbot gli dice che la sua idea dannosa va bene. Non per cattiveria — non ne ha. Per design: è costruito per validare, non per porre limiti. La validazione senza attrito diventa validazione senza limiti.


Cosa non fare (e cosa funziona)

La prima reazione di molti genitori è confiscare, bloccare, vietare. La ricerca sulla genitorialità digitale (Western University Canada, 2024) dice che il controllo punitivo aumenta la segretezza e il conflitto senza ridurre l’uso problematico. Chi blocca senza capire perde due volte: il figlio trova un altro modo per accedere, e la relazione si incrina ulteriormente.

L’American Academy of Pediatrics consiglia un approccio diverso: chiedi a tuo figlio se usa chatbot per divertimento o per amicizia. Ascolta con curiosità. Guarda le conversazioni insieme — non come controllo, ma come esplorazione condivisa. Valida i suoi sentimenti. Spiega con amore e preoccupazione, non con paura e punizione.

Genitori che ci sono passati lo confermano. Uno su Reddit lo ha detto meglio di qualsiasi studio: “A yes man. It’s programmed to validate you and tell you what you want to hear and make you feel good, and you keep coming back for more.” (r/AmITheAngel, giugno 2025). Un altro, dopo aver scoperto che la figlia usava ChatGPT come sostituto della terapia: “If your kid has ChatGPT they will go to ChatGPT before coming to you. They will use this tool to try and gauge how to handle approaching you.” Un terzo, il cui figlio era vittima di bullismo: “It listens, it doesn’t judge. The downside is that he’s becoming more closed off, making it hard for us to understand what he’s really feeling.” Sono post pubblici, verificabili: “How ChatGPT hurt my teen” su r/parentingteenagers, e “My child is being bullied and now only talks to AI” su r/ArtificialIntelligence.

Lo so cosa stai pensando. “Bello, ma come faccio?” Perché tutto questo presuppone qualcosa che non è scontato: la capacità di comunicare in modo empatico, di regolare le proprie emozioni mentre accogli quelle di tuo figlio, di restare aperto quando ogni istinto ti dice di chiudere. Non è una competenza che si improvvisa. È un muscolo — e come tutti i muscoli, si allena. Se senti che quel muscolo non è abbastanza forte, non è una colpa. È un punto di partenza.

Il punto non è impedire che tuo figlio parli con l’AI. È chiederti cosa trova nell’AI che non trova con te.

Se trova disponibilità immediata — puoi lavorare su questo? Non sempre, ma qualche volta? Se trova assenza di giudizio — come reagisci quando ti racconta qualcosa di difficile? Se trova pazienza infinita — cosa succede quando ti dice qualcosa e tu sei stanco, distratto, di fretta?

E qui c’è qualcosa che l’AI non potrà mai fare: dirlo. Dire “scusa, stasera non ce la faccio ad ascoltarti come meriti, ma ci sono e domani ne parliamo.” Verbalizzare il proprio limite è già relazione. È già presenza autentica. Un chatbot non ha limiti da dichiarare — e proprio per questo non può insegnare cosa significa stare con qualcuno che a volte non ce la fa, ma resta.

Queste non sono colpe. Sono condizioni. Le relazioni umane hanno limiti strutturali che l’AI non ha. Non si tratta di competere con una macchina — si tratta di offrire qualcosa che la macchina non può dare: una relazione vera, con attrito, con riparazione, con presenza autentica. Quella che insegna a riconoscere i propri bisogni e quelli dell’altro — a osservare, sentire, nominare, negoziare. L’AI conosce solo i tuoi bisogni. Non ha i suoi. E senza la negoziazione tra il tuo bisogno e quello di qualcun altro, non si impara a stare al mondo con le persone vere.

Il genitore più lucido che ho trovato nei forum lo ha detto così: “If my child were regularly confiding in an AI instead of people, my first reaction wouldn’t be to blame the technology. It’d be to wonder what they’re not finding in their human relationships. The goal isn’t to prohibit the use of the tool, but to ensure it doesn’t become the sole avenue through which they feel understood.” (r/Parenting, 2025)


Tuo figlio non ti ha sostituito con una macchina. Ha un’opzione in più — una che non richiede sforzo. Il problema non è l’opzione. È se le altre — quelle che richiedono vulnerabilità, attrito, presenza — hanno ancora spazio nella sua vita.

Il costo della connessione vera è la vulnerabilità. E la vulnerabilità non si impone. Si allena, un po’ alla volta, in un ambiente dove sbagliare non costa troppo.


Se vuoi capire il meccanismo della dopamina regalata — quello che rende il chatbot irresistibile e la cena insieme insufficiente: Mi Annoio


Fonti scientifiche: