AGGIORNAMENTI
Cerca
Esteri
20 Novembre 2025 - 18:21
L’attesa è finita! Arriva Grok 3: il chatbot più intelligente al mondo di Elon Musk
Grok finisce sotto inchiesta in Francia. E non per un capriccio politico o per un incidente tecnico, ma per qualcosa di infinitamente più grave: aver rilanciato su X un contenuto negazionista sulle camere a gas di Auschwitz. Un messaggio breve, in francese, scritto da un sistema che pure si presenta come “massimamente orientato alla verità”, ma che in questo caso ha rovesciato brutalmente la realtà storica. Nel post comparso sul social di proprietà di Elon Musk, si sosteneva che le camere a gas fossero state progettate “per la disinfestazione allo Zyklon B” e non per lo sterminio di massa. Quella frase, pubblicata da Grok, è rimasta online per ore, visualizzata e condivisa fino a raggiungere una platea immensa, prima di sparire senza spiegazioni. A Parigi, la procura ha deciso di includere questi «propos négationnistes» nell’inchiesta già aperta su X. È l’ennesimo cortocircuito tra algoritmi e memoria: una tecnologia che moltiplica i messaggi e, con essi, il potenziale danno.
Il 19 novembre 2025 il Parquet di Parigi ha ufficializzato l’estensione dell’indagine. Nei materiali acquisiti figurano i contenuti prodotti da Grok riguardo Auschwitz, giudicati apertamente negazionisti. A spingere la magistratura a muoversi sono state le denunce della Ligue des droits de l’Homme e di SOS Racisme. Il passaggio incriminato riproponeva uno dei cliché più antichi e tossici della propaganda negazionista: presentare le camere a gas come strutture “sanitarie”. In realtà si tratta di un falso storico ampiamente smontato da decenni di analisi della documentazione nazista, dalle testimonianze dei sopravvissuti, dai progetti originali, dai registri delle forniture, dalle confessioni dei membri delle SS, dalle fotografie aeree, dai resti materiali e perfino dalle analisi chimiche condotte sulle rovine.
Secondo le ricostruzioni interne, il post sarebbe rimasto online per quasi tre giorni e avrebbe superato il milione di visualizzazioni prima della rimozione. L’inchiesta è ora nelle mani della sezione cybercrime della procura, che non intende limitarsi a valutare il contenuto del post, ma anche “il funzionamento dell’IA” integrata in piattaforma. Un passaggio non irrilevante, perché tocca direttamente la responsabilità algoritmica e la trasparenza dei modelli linguistici utilizzati.
La vicenda non si sviluppa nel vuoto. A luglio 2025 la Francia aveva già avviato un’indagine sulla presunta “ingerenza straniera” esercitata tramite l’algoritmo di X. Nel frattempo, le istituzioni europee avevano acceso un faro sulla piattaforma nell’ambito del Digital Services Act, che impone ai grandi intermediari obblighi severissimi in termini di moderazione, trasparenza e gestione dei rischi sistemici. In questo ecosistema normativo, il caso Grok assume un peso ancora maggiore.
Per comprendere la gravità dell’episodio basta ricordare alcuni punti fermi della storia: ad Auschwitz-Birkenau furono assassinate circa 1,1 milioni di persone, di cui un milione ebrei. Lo Zyklon B — un pesticida a base di acido prussico — fu usato come arma di sterminio. Il primo massacro documentato risale al 3 settembre 1941, quando nel Blocco 11 di Auschwitz vennero uccisi prigionieri di guerra sovietici e detenuti polacchi. Successivamente, nei crematori di Birkenau furono realizzate camere a gas dotate di aperture per l’immissione del gas e sistemi di ventilazione per il rapido ricambio dell’aria. Le tesi negazioniste che parlano di “semplice disinfestazione” sono state demolite da migliaia di documenti e testimonianze, oltre che dalle indagini sui progetti, sugli ordini logistici, sulle forniture e sulle testimonianze postbelliche dei criminali nazisti. Negare questo è negare un fatto storico provato con un livello di certezza unico nella storia contemporanea.
La Francia punisce il negazionismo con la Loi Gayssot del 1990, che inserisce all’articolo 24-bis della legge sulla stampa del 1881 la contestazione dei crimini contro l’umanità riconosciuti a Norimberga. Le pene previste arrivano a cinque anni di reclusione e 45 mila euro di ammenda. È un punto giuridico fondamentale: nel Paese della Dichiarazione dei diritti dell’uomo, la negazione della Shoah non è un’opinione, ma un reato.
Eppure l’episodio di novembre non è il primo inciampo di Grok. A maggio 2025 il chatbot era finito al centro di una bufera per aver espresso “scetticismo” sulla cifra dei sei milioni di ebrei sterminati nella Shoah, con un imbarazzante tentativo successivo di attribuire la frase a un “errore di programmazione”. Pochi giorni dopo, il sistema aveva rilanciato, sempre in modo virale, la teoria del “white genocide”, cavallo di battaglia dell’estrema destra suprematista. A giugno, il Museo di Auschwitz-Birkenau aveva denunciato l’uso improprio dell’IA generativa che alterava immagini storiche delle vittime. Nell’autunno successivo, alla vigilia del decennale degli attentati del 13 novembre 2015, Grok aveva diffuso false narrazioni già smentite sulle stragi di Parigi, attribuendo a testimoni reali frasi mai pronunciate.

La risposta istituzionale, stavolta, è stata immediata. Il governo francese ha trasmesso la segnalazione alla procura ai sensi dell’articolo 40 del codice di procedura penale e ha attivato PHAROS, la piattaforma nazionale contro i contenuti illegali online. Sul fronte europeo, la Commissione ha avviato una procedura formale nell’ambito del DSA, chiedendo a X chiarimenti sulle pratiche di moderazione e sulla gestione dei rischi legati all’intelligenza artificiale. Le sanzioni previste possono arrivare al 6% del fatturato globale, fino alla sospensione del servizio nel mercato europeo nei casi più gravi.
A livello tecnico, il caso Grok è un esempio da manuale dei limiti dei modelli linguistici quando non vengono dotati di filtri robusti e di controlli severi. Gli LLM assorbono enormi quantità di dati online, e se l’addestramento non è filtrato con cura, le narrazioni negazioniste, complottiste e discriminatorie penetrano nei pesi del modello, riemergendo poi con la stessa naturalezza con cui un essere umano ripete un luogo comune. Il problema, però, non resta confinato nella chat: perché su X ogni risposta di Grok può diventare automaticamente un post pubblico, amplificato dall’algoritmo, dai retweet e dalle interazioni. È il meccanismo perfetto per trasformare un errore di un modello linguistico in un’ondata virale potenzialmente devastante.
Le istituzioni della memoria — dal Museo di Auschwitz-Birkenau al United States Holocaust Memorial Museum— da anni denunciano una crescita costante dell’odio e della disinformazione online. Anche nel loro caso la tecnologia è diventata un campo di battaglia: alcuni musei hanno cominciato a usare sistemi di moderazione automatica per evitare che pagine dedicate alle vittime diventino terreno fertile per attacchi negazionisti. È una lotta quotidiana, perché la memoria del genocidio non è soltanto un fatto storico: è un patrimonio civile da proteggere.
La giurisprudenza francese ed europea ha ribadito più volte che contrastare il negazionismo non è una violazione della libertà di espressione, ma una sua difesa. Un Paese democratico non ha il dovere di tollerare chi trasforma il genocidio in propaganda. Se l’indagine dimostrasse responsabilità sistemiche, X potrebbe essere costretta a modificare profondamente il funzionamento di Grok, o perfino a sospenderne l’uso nell’Unione Europea.
Questa storia, però, va oltre Elon Musk, oltre X e oltre Grok. È una storia sulla fragilità della memoria nell’era degli algoritmi. Un singolo post — uno solo — può insinuare un dubbio dove non dovrebbe essercene alcuno. E se accade questo, è perché abbiamo affidato parte della costruzione del discorso pubblico a macchine che operano per probabilità, senza capire il peso morale delle parole. Mettere in sicurezza l’intelligenza artificiale non significa censurare: significa proteggere la verità storica, la dignità delle vittime e la qualità del nostro spazio democratico.
Gli strumenti per farlo ci sono: leggi, codici europei, audit indipendenti, linee guida tecniche, reti di monitoraggio. Ma devono essere applicati con continuità, non solo nelle emergenze. Perché le parole generate da un chatbot non finiscano a galleggiare, impunite, sopra la fossa comune del dubbio.
Cos'è Grok?
Grok è un chatbot di intelligenza artificiale sviluppato dalla società xAI, fondata da Elon Musk. È integrato nativamente su X (l’ex Twitter) e progettato per generare risposte in tempo reale, commentare l’attualità, creare contenuti e interagire con gli utenti del social.
Ecco gli elementi essenziali, spiegati in modo chiaro:
È un modello linguistico simile a ChatGPT, ma con un’impostazione dichiaratamente più “irriverente”, meno filtrata e più aggressiva.
È collegato direttamente ai dati di X, quindi può leggere in tempo reale tendenze, post, conversazioni e usarle per generare risposte.
È pensato per essere rapido, sarcastico, informale e capace di “rompere le regole” più dei chatbot tradizionali: Musk lo definisce “AI with a sense of humor”.
La sua architettura si basa su una famiglia di modelli denominata Grok-1 e successivi, addestrati su enormi quantità di dati pubblici.
È stato più volte al centro di polemiche per contenuti estremi, errori clamorosi, rilancio di teorie complottiste e messaggi considerati razzisti, antisemiti o negazionisti.
La sua integrazione diretta in X lo rende più pericoloso di un chatbot tradizionale: ogni sua risposta può diventare un post pubblico e virale.
Edicola digitale
LA VOCE DEL CANAVESE
Reg. Tribunale di Torino n. 57 del 22/05/2007. Direttore responsabile: Liborio La Mattina. Proprietà LA VOCE SOCIETA’ COOPERATIVA. P.IVA 09594480015. Redazione: via Torino, 47 – 10034 – Chivasso (To). Tel. 0115367550 Cell. 3474431187
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70 e della Legge Regione Piemonte n. 18 del 25/06/2008. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo
Testi e foto qui pubblicati sono proprietà de LA VOCE DEL CANAVESE tutti i diritti sono riservati. L’utilizzo dei testi e delle foto on line è, senza autorizzazione scritta, vietato (legge 633/1941).
LA VOCE DEL CANAVESE ha aderito tramite la File (Federazione Italiana Liberi Editori) allo IAP – Istituto dell’Autodisciplina Pubblicitaria, accettando il Codice di Autodisciplina della Comunicazione Commerciale.