AGGIORNAMENTI
Cerca
Attualità
09 Dicembre 2025 - 11:35
Benvenuti nell’era in cui un video inventato può distruggere una persona velocemente
Una porta d’ingresso che si apre su un vialetto suburbano, un rettile che avanza lento verso uno zerbino, una nonna impassibile che lo scaccia con una scopa: milioni di utenti hanno riso davanti a quel presunto filmato di videosorveglianza su TikTok. Ma quella scena non è mai accaduta. È stata generata con Sora, la nuova app video di OpenAI, e da quel momento il confine già fragile tra vero e verosimile si è assottigliato al punto da diventare trasparente. In un altro caso, un video inventato — anch’esso generato con Sora — ha trascinato una donna qualunque in un vortice di odio, accuse e molestie: un episodio ricostruito l’8 dicembre 2025 da un grande quotidiano statunitense. Storie così, dall’autunno 2025, sono esplose a decine: contenuti iperrealistici, d’apparenza banale, che durante lo scorrimento sullo smartphone si confondono col reale, alimentando quella corrente vischiosa e impersonale che molti chiamano, con crescente disprezzo, “AI slop”.
Il salto qualitativo non è più quello dei filtri giocosi, ma quello della manipolazione credibile. Quando YouTube nel 2024 ha imposto la disclosure sui contenuti “realistici” alterati o generati con IA — un avviso nel player e nella descrizione — ha sancito che i video sintetici non erano più un divertissement da laboratorio, ma un formato da regolare. Le piattaforme hanno promesso etichette, watermark, indicatori di provenienza. Ma il lancio di Sora 2 ha mostrato quanto quei presidi siano fragili: la qualità dei video sintetici corre più veloce, lasciando dietro di sé sistemi di etichettatura incapaci di tenere il ritmo. Su TikTok e Instagram, una massa di clip produce scene plausibili in contesti domestici — citofoni, salotti, parchi — dove l’occhio umano abbassa la guardia per istinto. La soglia di scetticismo crolla, la confusione cognitiva completa il lavoro.
Il fenomeno è ormai numericamente ingestibile. Nel 2025, gli account che pubblicano video generati interamente o in larga parte da IA su TikTok sono esplosi. Una ricerca di AI Forensics su 354 profili ha contato più di 43.000 post e 4,5 miliardi di visualizzazioni in un solo mese; meno del 2% mostrava una qualunque etichetta “AI-generated”. A novembre 2025, TikTok ha introdotto un controllo per limitare la quantità di contenuti AIGC nel feed e ha dichiarato di ospitare oltre un miliardo di video etichettati come sintetici — una misura indiretta delle dimensioni del problema. Un’inchiesta del Washington Post ha testato la stessa clip fake, generata con Sora, su otto piattaforme: solo YouTube ha mostrato un’indicazione, peraltro poco evidente. I metadati C2PA, spesso invocati come la soluzione, sono quasi sempre rimossi o ignorati alla prima ricondivisione.

Le policy esistono, ma reggono poco. YouTube impone la disclosure e prevede sanzioni per chi non la rispetta; TikTok ha introdotto etichette manuali e adotta i Content Credentials; Meta applica label “Made with AI” anche a immagini e video fotorealistici, specie nella pubblicità. Ma l’intero sistema soffre di tre falle: i metadati non sopravvivono al reupload, le etichette sono poco visibili, la responsabilità è delegata agli utenti, che devono distinguere ciò che è vero da ciò che è solo verosimile. E i creatori di slop, spesso anonimi o basati fuori giurisdizione, aprono e chiudono account con una rapidità che supera ogni controllo.
Al lancio del 30 settembre 2025, OpenAI ha promesso watermark visibili e invisibili, C2PA integrato, restrizioni sull’uso di volti e voci tramite il sistema di cameo/characters, blocchi su personaggi pubblici, interventi rapidi sulle segnalazioni. Ma la filiera è più debole dei suoi anelli: basta esportare un video da Sora, ritagliarlo, ricomprimerlo, e la catena di fiducia crolla. Le agenzie come CAA e i gruppi civici come Public Citizen denunciano la facilità con cui identità reali — anche di persone defunte — possono essere imitate o sfruttate senza controllo, con conseguenze legali e reputazionali enormi.
Non è un gioco. Gli effetti sono concreti: una serie di deepfake di medici reali su TikTok, Facebook, X e YouTube ha promosso integratori non verificati; account che alimentano pulsioni anti-immigrati o contenuti sessualizzati accumulano miliardi di visualizzazioni; diversi Stati americani combattono il deepfake porn e i sistemi di “undressing” automatico. E poi il caso emblematico: un volto qualunque, un contesto plausibile, una storia falsa. Bastano poche ore di viralità per attivare minacce, doxxing, calunnie. Da un prompt, si accende una macchina d’odio.
Sul fronte normativo, l’Europa con l’AI Act impone marcature affidabili dei contenuti sintetici e ha avviato un codice di condotta per la cooperazione lungo la filiera; negli USA, il TAKE IT DOWN Act contrasta i deepfake intimi non consensuali; la California si muove tra watermarking obbligatorio e tutela contro le manipolazioni, non senza contenziosi. Ma la capacità di enforcement resta insufficiente rispetto a una produzione sintetica che viaggia alla velocità degli algoritmi.
La verità è che tutto si gioca nel feed. La fiducia — infrastruttura invisibile che tiene insieme informazione, mercato e democrazia — vacilla quando contenuti iperrealistici cancellano ogni anticorpo percettivo. Gli strumenti per difenderci esistono: watermark robusti, metadati preservati by design, policy coerenti, standard aperti. Ma funzionano solo se vengono applicati in ogni passaggio della filiera, dalla generazione alla ricondivisione. Altrimenti lo AI slop continuerà a impastare vero e falso, lasciando agli utenti solo stanchezza cognitiva. E quella stanchezza è il terreno ideale per qualsiasi manipolazione.
La scena dell’alligatore continuerà forse a far sorridere. Ma il prossimo video “normale” potrebbe distruggere una reputazione, falsare un fatto di cronaca, spostare un’opinione pubblica. Da Sora in poi, la posta non è più tecnologica: è sistemica.



Edicola digitale
I più letti
LA VOCE DEL CANAVESE
Reg. Tribunale di Torino n. 57 del 22/05/2007. Direttore responsabile: Liborio La Mattina. Proprietà LA VOCE SOCIETA’ COOPERATIVA. P.IVA 09594480015. Redazione: via Torino, 47 – 10034 – Chivasso (To). Tel. 0115367550 Cell. 3474431187
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70 e della Legge Regione Piemonte n. 18 del 25/06/2008. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo
Testi e foto qui pubblicati sono proprietà de LA VOCE DEL CANAVESE tutti i diritti sono riservati. L’utilizzo dei testi e delle foto on line è, senza autorizzazione scritta, vietato (legge 633/1941).
LA VOCE DEL CANAVESE ha aderito tramite la File (Federazione Italiana Liberi Editori) allo IAP – Istituto dell’Autodisciplina Pubblicitaria, accettando il Codice di Autodisciplina della Comunicazione Commerciale.