Cerca

Attualità

Padre condannato per pedopornografia dopo aver inviato la foto del figlio al pediatra? Ecco il rischio di Chat Control

La proposta europea che potrebbe trasformare ogni chat privata in un potenziale terreno di sorveglianza, e perché riguarda tutti noi

Padre condannato

Padre condannato per pedopornografia dopo aver inviato la foto del figlio al pediatra: ecco il rischio di Chat Control

Ora che ho la tua attenzione, parliamo del Chat Control.
Perché dietro casi come quello di un padre denunciato per pedopornografia dopo aver inviato, in buona fede, la foto del proprio figlio al pediatra per un consulto, si nasconde uno scenario che potrebbe diventare realtà per milioni di cittadini europei: quello di una sorveglianza automatizzata delle conversazioni private, anche nelle chat cifrate.

Il nome ufficiale è CSAR – Child Sexual Abuse Regulation, proposta di regolamento presentata dalla Commissione Europea nel 2022 per contrastare la diffusione online di materiale pedopornografico e prevenire gli abusi sui minori. Ma dietro la promessa di tutela si cela un rischio profondo: la possibilità che le nostre comunicazioni più intime — foto, messaggi, email — vengano analizzate da algoritmi e intelligenze artificiali alla ricerca di contenuti “sospetti”.

Il principio, sulla carta, sembra nobile: proteggere i bambini. Ma il metodo rischia di essere devastante per la privacy di tutti. Perché la scansione dei messaggi non si fermerebbe alle chat pubbliche o ai social: coinvolgerebbe anche le app di messaggistica cifrata come WhatsApp, Signal o Telegram, fino alle e-mail e ai servizi cloud.
Si chiama client-side scanning, ed è un meccanismo che prevede di analizzare i contenuti direttamente sul dispositivo dell’utente, prima ancora che vengano cifrati o inviati. In pratica, significa che ogni volta che mandi una foto o scrivi un messaggio, un software potrebbe controllarlo.

Gli oppositori della misura — tra cui Signal, ProtonMail, Mozilla, giuristi e associazioni per i diritti digitali come EDRi e Privacy International — la definiscono un passo verso una sorveglianza di massa preventiva, incompatibile con la Carta dei Diritti Fondamentali dell’Unione Europea. Perché in nome della sicurezza si finirebbe per violare la presunzione di innocenza, trattando ogni cittadino come un potenziale criminale.

Il problema non è solo teorico. I sistemi di rilevamento automatico generano falsi positivi: fotografie di bambini nella vasca da bagno, immagini familiari o scatti inviati a fini medici possono essere scambiati per materiale illegale. È già successo. In alcuni casi negli Stati Uniti, dove sistemi simili sono in uso, genitori si sono visti chiudere gli account Google o iCloud, segnalati automaticamente alle autorità, solo per aver inviato immagini di un figlio malato al pediatra.

Ora immagina questo scenario su scala europea: milioni di messaggi controllati ogni giorno da algoritmi opachi, con la possibilità di errori, abusi e intrusioni. Gli esperti di sicurezza informatica avvertono che aprire “finestre” nella cifratura end-to-end — il meccanismo che garantisce che solo mittente e destinatario possano leggere un messaggio — significa indebolire la sicurezza digitale globale. Non esiste una “backdoor buona”: una volta creata, può essere sfruttata da chiunque.

Il dibattito politico è acceso. Germania e Lussemburgo si sono opposti con forza alla proposta, ritenendola incompatibile con la Costituzione europea. Italia, Francia e Spagna oscillano tra la prudenza e l’appoggio, mentre Parlamento e Consiglio Europeo stanno negoziando una versione “ammorbidita” del testo. Ma per molti giuristi, anche la versione più soft resta pericolosa.

Il rischio, secondo gli analisti, è duplice. Da un lato, la normalizzazione della sorveglianza preventiva: un precedente che potrebbe aprire la strada a controlli per altri reati o fini politici. Dall’altro, la perdita di fiducia negli strumenti digitali. Chi si sentirà libero di parlare con il proprio terapeuta, con un giornalista o con un avvocato sapendo che un algoritmo può “leggere” la conversazione?

In un’epoca in cui l’intelligenza artificiale è sempre più integrata nei processi decisionali, affidare a un sistema automatico il potere di segnalare contenuti “criminali” rischia di spostare il confine tra giustizia e sospetto permanente.

Il Chat Control non è ancora legge, ma il tempo stringe. Nei prossimi mesi il Parlamento Europeo dovrà votare la versione definitiva. Le pressioni delle lobby della sicurezza e delle grandi piattaforme sono forti, ma cresce anche la mobilitazione dei cittadini: campagne come #StopChatControl o Fight Chat Control stanno raccogliendo firme in tutta Europa per chiedere trasparenza e garanzie costituzionali.

Perché la domanda da porsi è semplice, e riguarda tutti: quanto siamo disposti a rinunciare alla nostra privacy in nome della sicurezza?
E soprattutto: chi controllerà, domani, chi ci controlla?

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori