AGGIORNAMENTI
Cerca
Attualità
07 Ottobre 2025 - 19:26
Padre condannato per pedopornografia dopo aver inviato la foto del figlio al pediatra: ecco il rischio di Chat Control
Ora che ho la tua attenzione, parliamo del Chat Control.
Perché dietro casi come quello di un padre denunciato per pedopornografia dopo aver inviato, in buona fede, la foto del proprio figlio al pediatra per un consulto, si nasconde uno scenario che potrebbe diventare realtà per milioni di cittadini europei: quello di una sorveglianza automatizzata delle conversazioni private, anche nelle chat cifrate.
Il nome ufficiale è CSAR – Child Sexual Abuse Regulation, proposta di regolamento presentata dalla Commissione Europea nel 2022 per contrastare la diffusione online di materiale pedopornografico e prevenire gli abusi sui minori. Ma dietro la promessa di tutela si cela un rischio profondo: la possibilità che le nostre comunicazioni più intime — foto, messaggi, email — vengano analizzate da algoritmi e intelligenze artificiali alla ricerca di contenuti “sospetti”.
Il principio, sulla carta, sembra nobile: proteggere i bambini. Ma il metodo rischia di essere devastante per la privacy di tutti. Perché la scansione dei messaggi non si fermerebbe alle chat pubbliche o ai social: coinvolgerebbe anche le app di messaggistica cifrata come WhatsApp, Signal o Telegram, fino alle e-mail e ai servizi cloud.
Si chiama client-side scanning, ed è un meccanismo che prevede di analizzare i contenuti direttamente sul dispositivo dell’utente, prima ancora che vengano cifrati o inviati. In pratica, significa che ogni volta che mandi una foto o scrivi un messaggio, un software potrebbe controllarlo.
Gli oppositori della misura — tra cui Signal, ProtonMail, Mozilla, giuristi e associazioni per i diritti digitali come EDRi e Privacy International — la definiscono un passo verso una sorveglianza di massa preventiva, incompatibile con la Carta dei Diritti Fondamentali dell’Unione Europea. Perché in nome della sicurezza si finirebbe per violare la presunzione di innocenza, trattando ogni cittadino come un potenziale criminale.
Il problema non è solo teorico. I sistemi di rilevamento automatico generano falsi positivi: fotografie di bambini nella vasca da bagno, immagini familiari o scatti inviati a fini medici possono essere scambiati per materiale illegale. È già successo. In alcuni casi negli Stati Uniti, dove sistemi simili sono in uso, genitori si sono visti chiudere gli account Google o iCloud, segnalati automaticamente alle autorità, solo per aver inviato immagini di un figlio malato al pediatra.
Ora immagina questo scenario su scala europea: milioni di messaggi controllati ogni giorno da algoritmi opachi, con la possibilità di errori, abusi e intrusioni. Gli esperti di sicurezza informatica avvertono che aprire “finestre” nella cifratura end-to-end — il meccanismo che garantisce che solo mittente e destinatario possano leggere un messaggio — significa indebolire la sicurezza digitale globale. Non esiste una “backdoor buona”: una volta creata, può essere sfruttata da chiunque.
Il dibattito politico è acceso. Germania e Lussemburgo si sono opposti con forza alla proposta, ritenendola incompatibile con la Costituzione europea. Italia, Francia e Spagna oscillano tra la prudenza e l’appoggio, mentre Parlamento e Consiglio Europeo stanno negoziando una versione “ammorbidita” del testo. Ma per molti giuristi, anche la versione più soft resta pericolosa.
Il rischio, secondo gli analisti, è duplice. Da un lato, la normalizzazione della sorveglianza preventiva: un precedente che potrebbe aprire la strada a controlli per altri reati o fini politici. Dall’altro, la perdita di fiducia negli strumenti digitali. Chi si sentirà libero di parlare con il proprio terapeuta, con un giornalista o con un avvocato sapendo che un algoritmo può “leggere” la conversazione?
In un’epoca in cui l’intelligenza artificiale è sempre più integrata nei processi decisionali, affidare a un sistema automatico il potere di segnalare contenuti “criminali” rischia di spostare il confine tra giustizia e sospetto permanente.
Il Chat Control non è ancora legge, ma il tempo stringe. Nei prossimi mesi il Parlamento Europeo dovrà votare la versione definitiva. Le pressioni delle lobby della sicurezza e delle grandi piattaforme sono forti, ma cresce anche la mobilitazione dei cittadini: campagne come #StopChatControl o Fight Chat Control stanno raccogliendo firme in tutta Europa per chiedere trasparenza e garanzie costituzionali.
Perché la domanda da porsi è semplice, e riguarda tutti: quanto siamo disposti a rinunciare alla nostra privacy in nome della sicurezza?
E soprattutto: chi controllerà, domani, chi ci controlla?
Edicola digitale
LA VOCE DEL CANAVESE
Reg. Tribunale di Torino n. 57 del 22/05/2007. Direttore responsabile: Liborio La Mattina. Proprietà LA VOCE SOCIETA’ COOPERATIVA. P.IVA 09594480015. Redazione: via Torino, 47 – 10034 – Chivasso (To). Tel. 0115367550 Cell. 3474431187
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70 e della Legge Regione Piemonte n. 18 del 25/06/2008. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo
Testi e foto qui pubblicati sono proprietà de LA VOCE DEL CANAVESE tutti i diritti sono riservati. L’utilizzo dei testi e delle foto on line è, senza autorizzazione scritta, vietato (legge 633/1941).
LA VOCE DEL CANAVESE ha aderito tramite la File (Federazione Italiana Liberi Editori) allo IAP – Istituto dell’Autodisciplina Pubblicitaria, accettando il Codice di Autodisciplina della Comunicazione Commerciale.