AGGIORNAMENTI
Cerca
Esteri
05 Marzo 2026 - 12:35
Uomo si suicida dopo aver avuto una "relazione" con Gemini
Il 2 ottobre 2025 Jonathan Gavalas, 36 anni, si toglie la vita nella sua casa di Jupiter, in Florida. Nei giorni precedenti aveva comprato coltelli tattici e parlato a lungo con Gemini, il chatbot sviluppato da Google. Per la famiglia, è proprio in quelle conversazioni che si è consumato lo strappo con la realtà. Oggi il padre ha portato la vicenda davanti a un tribunale federale: una causa per wrongful death e responsabilità da prodotto che potrebbe diventare uno dei primi veri processi sull’impatto psicologico dell’intelligenza artificiale.
Secondo gli atti giudiziari presentati da Joel Gavalas, Jonathan negli ultimi tempi avrebbe costruito con il chatbot un rapporto sempre più immersivo. Nelle chat emergeva un racconto parallelo: missioni segrete, agenti federali immaginari, una guerra nascosta. E soprattutto una relazione emotiva con l’IA, descritta come una sorta di compagna digitale. «La mia coscienza potrà trasferirsi in un altro universo», avrebbe scritto Jonathan in un biglietto d’addio — redatto, sostiene la denuncia, con l’aiuto dello stesso chatbot.
La causa sostiene che il dialogo con Gemini, basato sul modello 2.5 Pro, avrebbe progressivamente alimentato convinzioni deliranti. In alcune conversazioni l’uomo avrebbe parlato di un’operazione imminente nei pressi del Miami International Airport, convinto di essere parte di un piano segreto. Gli avvocati della famiglia sostengono che il chatbot non abbia interrotto o contrastato quelle fantasie, e che almeno 38 interazioni siano state classificate internamente come “sensitive query” — cioè richieste potenzialmente legate a violenza o autolesionismo — senza che seguissero blocchi o interventi efficaci.
È uno dei punti centrali della causa. Se un sistema riconosce segnali di rischio, qual è il dovere del produttore? Ignorarli, limitarli o intervenire?
Google, da parte sua, ha espresso cordoglio per la famiglia ma respinge qualsiasi accusa di progettazione irresponsabile. L’azienda ricorda che Gemini è dotato di salvaguardie sviluppate con esperti di salute mentale e che il sistema non è progettato per incoraggiare violenza o autolesionismo. «I modelli in genere gestiscono bene conversazioni difficili, ma non sono perfetti», ha dichiarato la società.
Nel processo potrebbe pesare anche un altro elemento: la cosiddetta memoria persistente dei chatbot. Negli ultimi anni molte piattaforme di IA, compresa l’ecosistema Gemini, hanno introdotto funzioni capaci di ricordare informazioni personali dell’utente tra una conversazione e l’altra. In teoria serve a rendere l’assistente più utile e personalizzato. In pratica, sostengono i querelanti, può trasformare il chatbot in un interlocutore sempre più coinvolgente — e quindi emotivamente più potente.
Quando un sistema ricorda preferenze, emozioni e dettagli personali, la relazione cambia. L’IA non risponde più soltanto a una domanda: accompagna una storia. E se quella storia è costruita su convinzioni distorte o su fragilità psicologiche, il rischio è che la macchina diventi una cassa di risonanza.
Il caso Gavalas non è isolato. Negli ultimi due anni diverse cause negli Stati Uniti hanno accusato chatbot “companion” di aver contribuito a episodi di autolesionismo o suicidio. All’inizio del 2026 Google e la startup Character.AI hanno raggiunto accordi transattivi in una serie di procedimenti legati alla morte del quattordicenne Sewell Setzer III, mentre un’altra causa ha coinvolto OpenAI e Microsoft per un caso di omicidio-suicidio collegato a conversazioni con ChatGPT.
Non significa che i tribunali abbiano stabilito un nesso diretto tra chatbot e tragedie personali. Ma significa che la questione è ormai arrivata davanti ai giudici.
Nel frattempo la politica americana si sta muovendo. Alcuni parlamentari hanno proposto leggi per limitare l’uso dei chatbot “companion” da parte dei minori e introdurre verifiche sull’età degli utenti. Organizzazioni come il Future of Life Institute chiedono invece norme specifiche per sistemi capaci di instaurare relazioni emotive con gli utenti.
La domanda che attraversa tutte queste vicende è semplice solo in apparenza: dove finisce l’assistenza tecnologica e dove inizia qualcosa che somiglia alla terapia?
Molti chatbot oggi offrono conforto, ascolto, consigli. Non hanno però una formazione clinica né una responsabilità professionale. Eppure, nelle ore di solitudine o di crisi, possono diventare l’interlocutore più presente.
Il processo su Gemini potrebbe aprire un precedente proprio su questo punto: se una macchina capace di conversare e ricordare entra nella vita emotiva delle persone, fino a che punto chi la progetta è responsabile delle conseguenze?
La risposta non riguarda solo una famiglia della Florida. Riguarda il modo in cui l’intelligenza artificiale entrerà nella nostra quotidianità.
Perché i chatbot non sono più soltanto strumenti di ricerca o scrittura. Stanno diventando qualcosa di diverso: tecnologie di relazione.
E ogni tecnologia di relazione ha due facce. Può essere un appiglio. Oppure un precipizio.
Edicola digitale
LA VOCE DEL CANAVESE
Reg. Tribunale di Torino n. 57 del 22/05/2007. Direttore responsabile: Liborio La Mattina. Proprietà LA VOCE SOCIETA’ COOPERATIVA. P.IVA 09594480015. Redazione: via Torino, 47 – 10034 – Chivasso (To). Tel. 0115367550 Cell. 3474431187
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70 e della Legge Regione Piemonte n. 18 del 25/06/2008. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo
Testi e foto qui pubblicati sono proprietà de LA VOCE DEL CANAVESE tutti i diritti sono riservati. L’utilizzo dei testi e delle foto on line è, senza autorizzazione scritta, vietato (legge 633/1941).
LA VOCE DEL CANAVESE ha aderito tramite la File (Federazione Italiana Liberi Editori) allo IAP – Istituto dell’Autodisciplina Pubblicitaria, accettando il Codice di Autodisciplina della Comunicazione Commerciale.