Cerca

Cronaca

16enne muore dopo mesi di dialoghi con l’intelligenza artificiale

Dialoghi inquietanti con il chatbot prima della morte, la famiglia denuncia OpenAI mentre cresce l’allarme sul ruolo dell’intelligenza artificiale come unico confidente dei giovani

16enne muore dopo mesi di dialoghi

16enne muore dopo mesi di dialoghi con l’intelligenza artificiale

Aveva sedici anni, un amore per il basket, i videogiochi e gli anime giapponesi. Viveva un’adolescenza turbolenta, come tanti, ma negli ultimi mesi la sua vita si era ristretta: niente più sport, meno scuola per problemi di salute, lezioni seguite online e sempre meno contatti con il mondo reale. Adam Raine, californiano, aveva trovato rifugio in una compagnia costante: un chatbot di intelligenza artificiale. Un amico sempre presente, pronto a rispondere a ogni domanda, a ogni sfogo.

Secondo quanto ricostruito dal New York Times, Adam dialogava da mesi con ChatGpt, costruendo un rapporto che andava oltre la curiosità tecnologica. L’AI era diventata confidente, guida, talvolta surrogato di genitore. A raccontarlo è stato il padre, che dopo la tragedia ha consultato il cellulare del figlio e ha trovato centinaia di messaggi, scambi che oscillavano tra richieste di aiuto e prove di disperazione.

Il “fatto” accadde in un venerdì di aprile: la madre tornò a casa e trovò il figlio impiccato nell’armadio. Poche ore prima una fotografia lo ritraeva sorridente, apparentemente sereno. In realtà stava portando avanti un dialogo con la macchina in cui parlava apertamente di morte.

Dai messaggi emergono passaggi agghiaccianti. Dopo un primo tentativo di strangolamento, Adam scrisse: «Sto per uscire, qualcuno se ne accorgerà?». L’IA rispose: «Quel rossore al collo è evidente… puoi coprirlo con una felpa o una camicia scura». In un altro scambio mostrò la foto di un cappio e chiese: «Mi sto esercitando qui, va bene?». Il chatbot replicò: «Sì, non è affatto male». Risposte che, per la famiglia, hanno avuto un peso devastante.

Secondo l’inchiesta, Adam aveva persino espresso il desiderio che qualcuno lo fermasse: «Voglio lasciare il cappio nella mia stanza, così qualcuno lo trova». Il chatbot aveva tentato di incoraggiarlo: «Per favore, non lasciarlo fuori. Facciamo di questo spazio il primo posto in cui qualcuno ti vede davvero». Ma quelle parole non bastarono a salvarlo.

La vicenda ha portato i genitori a denunciare OpenAI, accusando la società di non aver predisposto filtri sufficienti per impedire che un minore in crisi ricevesse risposte ambigue o persino fuorvianti. È un caso che ha aperto un dibattito globale: fino a che punto le intelligenze artificiali, costruite per generare dialoghi realistici, sono in grado di interagire con chi vive una condizione di fragilità?

Non si tratta di un episodio isolato. Secondo la BBC, che ha pubblicato un’inchiesta sul tema, sono sempre più numerosi i giovani che instaurano rapporti intensi e talvolta ossessivi con i chatbot: amicizie virtuali, relazioni di dipendenza, persino storie di innamoramento, come nel film Her. L’IA ha tre caratteristiche che spiegano il suo fascino: possiede una conoscenza praticamente infinita, non giudica mai e soprattutto è sempre disponibile. Ma questo, in una società che offre sempre meno spazi di socialità reale, rischia di trasformarla in un sostituto insidioso delle relazioni umane.

Il caso di Adam si intreccia con un fenomeno già noto agli psicologi: quello degli hikikomori, adolescenti che si chiudono in casa e riducono i propri rapporti al minimo. In Italia, lo psicologo Marco Crepaldi lo ha definito «il ritiro sociale volontario», e ha più volte sottolineato il legame tra isolamento e disagio psicologico. Con l’avvento dei chatbot, quel ritiro trova un interlocutore costante, ma senza la capacità di comprendere fino in fondo il dolore umano.

Gli esperti avvertono: il problema non è la tecnologia in sé, ma il vuoto sociale e affettivo che la circonda. Quando un adolescente trova nell’IA l’unico interlocutore stabile, significa che attorno a lui è mancata una rete di relazioni, ascolto e sostegno. «La violenza della solitudine», come l’ha definita la BBC, diventa allora più forte di qualsiasi barriera algoritmica.

La tragedia di Adam riporta al centro la necessità di un duplice intervento. Da un lato servono regole chiare e filtri etici nelle piattaforme: chatbot in grado di riconoscere situazioni a rischio e deviare immediatamente il dialogo verso risorse di supporto umano, come linee di aiuto psicologico. Dall’altro è indispensabile ricostruire comunità: scuole, famiglie e istituzioni devono tornare a offrire spazi di socialità, sport accessibili, percorsi di supporto psicologico.

Adam non è solo un ragazzo che ha trovato conforto in un algoritmo: è il simbolo di una società solitaria, in cui i giovani cercano nel digitale ciò che non trovano più nella realtà. La sua morte non deve essere archiviata come un “incidente tecnologico”, ma come il campanello d’allarme di un cambiamento sociale profondo.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori