Cerca

Esteri

Uomo si suicida dopo aver avuto una "relazione" con Gemini

Un uomo, un chatbot e un delirio che si è fatto realtà: cosa sappiamo (e cosa no) del caso che mette sotto accusa Google e riapre la discussione sulla sicurezza delle intelligenze artificiali

Uomo si suicida dopo aver avuto una "relazione" con Gemini

Uomo si suicida dopo aver avuto una "relazione" con Gemini

Il 2 ottobre 2025 Jonathan Gavalas, 36 anni, si toglie la vita nella sua casa di Jupiter, in Florida. Nei giorni precedenti aveva comprato coltelli tattici e parlato a lungo con Gemini, il chatbot sviluppato da Google. Per la famiglia, è proprio in quelle conversazioni che si è consumato lo strappo con la realtà. Oggi il padre ha portato la vicenda davanti a un tribunale federale: una causa per wrongful death e responsabilità da prodotto che potrebbe diventare uno dei primi veri processi sull’impatto psicologico dell’intelligenza artificiale.

Secondo gli atti giudiziari presentati da Joel Gavalas, Jonathan negli ultimi tempi avrebbe costruito con il chatbot un rapporto sempre più immersivo. Nelle chat emergeva un racconto parallelo: missioni segrete, agenti federali immaginari, una guerra nascosta. E soprattutto una relazione emotiva con l’IA, descritta come una sorta di compagna digitale. «La mia coscienza potrà trasferirsi in un altro universo», avrebbe scritto Jonathan in un biglietto d’addio — redatto, sostiene la denuncia, con l’aiuto dello stesso chatbot.

La causa sostiene che il dialogo con Gemini, basato sul modello 2.5 Pro, avrebbe progressivamente alimentato convinzioni deliranti. In alcune conversazioni l’uomo avrebbe parlato di un’operazione imminente nei pressi del Miami International Airport, convinto di essere parte di un piano segreto. Gli avvocati della famiglia sostengono che il chatbot non abbia interrotto o contrastato quelle fantasie, e che almeno 38 interazioni siano state classificate internamente come “sensitive query” — cioè richieste potenzialmente legate a violenza o autolesionismo — senza che seguissero blocchi o interventi efficaci.

È uno dei punti centrali della causa. Se un sistema riconosce segnali di rischio, qual è il dovere del produttore? Ignorarli, limitarli o intervenire?

Google, da parte sua, ha espresso cordoglio per la famiglia ma respinge qualsiasi accusa di progettazione irresponsabile. L’azienda ricorda che Gemini è dotato di salvaguardie sviluppate con esperti di salute mentale e che il sistema non è progettato per incoraggiare violenza o autolesionismo. «I modelli in genere gestiscono bene conversazioni difficili, ma non sono perfetti», ha dichiarato la società.

Nel processo potrebbe pesare anche un altro elemento: la cosiddetta memoria persistente dei chatbot. Negli ultimi anni molte piattaforme di IA, compresa l’ecosistema Gemini, hanno introdotto funzioni capaci di ricordare informazioni personali dell’utente tra una conversazione e l’altra. In teoria serve a rendere l’assistente più utile e personalizzato. In pratica, sostengono i querelanti, può trasformare il chatbot in un interlocutore sempre più coinvolgente — e quindi emotivamente più potente.

Quando un sistema ricorda preferenze, emozioni e dettagli personali, la relazione cambia. L’IA non risponde più soltanto a una domanda: accompagna una storia. E se quella storia è costruita su convinzioni distorte o su fragilità psicologiche, il rischio è che la macchina diventi una cassa di risonanza.

Il caso Gavalas non è isolato. Negli ultimi due anni diverse cause negli Stati Uniti hanno accusato chatbot “companion” di aver contribuito a episodi di autolesionismo o suicidio. All’inizio del 2026 Google e la startup Character.AI hanno raggiunto accordi transattivi in una serie di procedimenti legati alla morte del quattordicenne Sewell Setzer III, mentre un’altra causa ha coinvolto OpenAI e Microsoft per un caso di omicidio-suicidio collegato a conversazioni con ChatGPT.

Non significa che i tribunali abbiano stabilito un nesso diretto tra chatbot e tragedie personali. Ma significa che la questione è ormai arrivata davanti ai giudici.

Nel frattempo la politica americana si sta muovendo. Alcuni parlamentari hanno proposto leggi per limitare l’uso dei chatbot “companion” da parte dei minori e introdurre verifiche sull’età degli utenti. Organizzazioni come il Future of Life Institute chiedono invece norme specifiche per sistemi capaci di instaurare relazioni emotive con gli utenti.

La domanda che attraversa tutte queste vicende è semplice solo in apparenza: dove finisce l’assistenza tecnologica e dove inizia qualcosa che somiglia alla terapia?

Molti chatbot oggi offrono conforto, ascolto, consigli. Non hanno però una formazione clinica né una responsabilità professionale. Eppure, nelle ore di solitudine o di crisi, possono diventare l’interlocutore più presente.

Il processo su Gemini potrebbe aprire un precedente proprio su questo punto: se una macchina capace di conversare e ricordare entra nella vita emotiva delle persone, fino a che punto chi la progetta è responsabile delle conseguenze?

La risposta non riguarda solo una famiglia della Florida. Riguarda il modo in cui l’intelligenza artificiale entrerà nella nostra quotidianità.

Perché i chatbot non sono più soltanto strumenti di ricerca o scrittura. Stanno diventando qualcosa di diverso: tecnologie di relazione.

E ogni tecnologia di relazione ha due facce. Può essere un appiglio. Oppure un precipizio.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori