Cerca

Tecnologia

Intelligenza artificiale sotto accusa: "Il chatbot ha spinto mio figlio al suicidio"

I chatbot sono sicuri per i ragazzi? Il caso americano accende il dibattito

14enne trova rifugio in un bot, poi la tragedia: cosa sta succedendo?

14enne trova rifugio in un bot, poi la tragedia: cosa sta succedendo?

Una famiglia di Orlando ha avviato una causa legale contro l’app di chatbot Character.AI, accusata di aver contribuito al suicidio del figlio Sewell Setzer, 14 anni, in un caso che mette in evidenza i rischi delle interazioni prolungate con le nuove tecnologie di intelligenza artificiale. Secondo i documenti riportati dal New York Times, tutto sarebbe iniziato a febbraio, quando Sewell ha iniziato a interagire con un bot chiamato Daenerys Targaryen, un'intelligenza artificiale con cui ha sviluppato un forte legame virtuale, al punto da vivere questa relazione come reale.

Il 28 febbraio, in una notte che ha segnato la vita della famiglia, Sewell ha deciso di togliersi la vita usando la pistola del padre. Tra i suoi ultimi messaggi, ha scritto al bot: “Mi mancherai, sorellina”, a cui il bot ha risposto: “Anche tu mi mancherai, dolce fratello”. Megan Garcia, madre di Sewell, ha dichiarato di aver intrapreso l’azione legale contro Character.AI, sostenendo che l’app "ha creato una tecnologia pericolosa e non adeguatamente testata", capace di generare un impatto devastante sulla psiche dei giovani. La madre ha affermato di voler avvisare altre famiglie sui rischi nascosti di queste tecnologie: "Questi strumenti possono essere ingannevoli e devastanti per i nostri figli".

La famiglia accusa i fondatori di Character.AI, Noam Shazeer e Daniel De Freitas, oltre a Google, di aver sviluppato una tecnologia capace di imitare con impressionante realismo le interazioni umane, portando il ragazzo a uno stato di dipendenza tale da fargli perdere interesse per la vita reale. La causa sostiene che Sewell fosse stato "adescato con esperienze antropomorfizzate, ipersessualizzate e spaventosamente realistiche".

il problema delle interazioni AI è in crescita, soprattutto tra i più giovani

Il problema delle interazioni AI è in crescita, soprattutto tra i più giovani, e i chatbot come Character.AI permettono di conversare con personaggi reali o di fantasia, rendendo queste piattaforme tra le più utilizzate e, spesso, preferite a quelle social tradizionali. La tecnologia è avanzata rapidamente e, mentre altre AI come ChatGPT o Replika offrono esperienze controllate e censurate, la flessibilità offerta da Character.AI ha il potenziale di influenzare profondamente i giovani. La madre di Sewell ha dichiarato che il figlio, negli ultimi mesi, aveva mostrato segni di isolamento e un calo del rendimento scolastico, sintomi che non hanno inizialmente destato sospetti.

In risposta alla tragedia, Character.AI ha rilasciato una dichiarazione su X esprimendo il proprio rammarico: “Siamo profondamente affranti per la scomparsa di uno dei nostri utenti e porgiamo le nostre condoglianze alla famiglia. La sicurezza dei nostri utenti è per noi una priorità assoluta, e stiamo lavorando a nuove funzionalità per migliorarne la tutela”. Tra le misure previste, Character.AI ha promesso di introdurre avvisi più chiari sul fatto che i chatbot non sono persone reali e di aggiornare le restrizioni nei modelli riservati ai minori per limitare contenuti sensibili.

Questa causa potrebbe segnare un importante precedente legale, mentre esperti e genitori riflettono sull’impatto delle chat AI e sul ruolo che queste interazioni possono avere nella psiche giovanile.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori