Cerca

Esteri

Australia, cancellati i profili dei minorenni: metà milione di ragazzi sparisce dai social in 14 giorni

La nuova legge che vieta l’accesso ai social agli under 16 diventa realtà: notifiche di chiusura, ricordi digitali da salvare in fretta e piattaforme costrette a usare verifiche dell’età sempre più invasive. Un esperimento mondiale che promette protezione, ma apre un fronte enorme su privacy, esclusione e diritti

Australia, cancellati i profili dei minorenni: metà milione di ragazzi sparisce dai social in 14 giorni

Australia, cancellati i profili dei minorenni: metà milione di ragazzi sparisce dai social in 14 giorni

Messaggi che si chiudono, account che svaniscono, un conto alla rovescia che fa scuola: come l’Australia prova a riscrivere l’infanzia digitale, tra grandi promesse e nodi irrisolti

Un pomeriggio di fine scuola, una notifica compare sullo schermo: “Il tuo account verrà disattivato tra 14 giorni”. Ha quattordici anni, vive a Sydney, scorre freneticamente le foto, prova a salvare il salvabile. Non è un esperimento sociale: è la nuova normalità imposta dalla legge australiana che da martedì 10 dicembre 2025 rende i social media off-limits agli under 16. Le aziende hanno iniziato a chiudere i profili dei più giovani, a inviare avvisi via app, email e SMS, a offrire strumenti per scaricare anni di ricordi digitali destinati a dissolversi. La promessa del governo è chiara: proteggere i minori dai meccanismi di ricompensa delle piattaforme, dai feed personalizzati, dalle dinamiche tossiche che possono trovare terreno fertile tra gli adolescenti. La domanda che scuote famiglie, scuole e piattaforme è però un’altra, molto meno lineare: si può davvero farlo, e a quale prezzo in termini di privacy, inclusione e libertà?

meta

Per la prima volta in un Paese del G20, una legge interviene non su contenuti specifici, ma sulla possibilità stessa di avere un account. Il nuovo regime stabilisce che, dal 10 dicembre 2025, le piattaforme classificate come “age-restricted” debbano mettere in campo “ragionevoli passi” per impedire ai minori di 16 anni di creare o mantenere un profilo personale. Una violazione può costare fino a 49,5 milioni di dollari australiani. A vigilare è la eSafety Commissioner – oggi guidata da Julie Inman Grant – in coordinamento con l’Office of the Australian Information Commissioner, garante della privacy. L’elenco dei servizi interessati comprende Facebook, Instagram, Threads, TikTok, Snapchat, X, YouTube, Reddit e Kick. Non è fisso: può essere aggiornato in ogni momento. Restano fuori i servizi di messaggistica pura, email, videochiamate, strumenti educativi e buona parte dei videogiochi. Sono dunque ancora accessibili, tra gli altri, Messenger, WhatsApp, YouTube Kids, Discord, Roblox, Google Classroom e Steam.

Una particolarità spicca subito: la legge non impone una verifica dell’età universale, non obbliga le aziende a controllare documenti o scansionare il volto di ogni utente. Il governo ha scelto un approccio “pragmatico”, fatto di passi ragionevoli, aggiustamenti progressivi e una revisione indipendente prevista entro due anni. Non conta il numero di minori effettivamente esclusi, ma il percorso seguito dalle piattaforme: trasparenza, diligenza, proporzionalità, rispetto della privacy.

Il primo tassello a cadere è stato quello di Meta, che dal 4 dicembre 2025 ha iniziato a bloccare le registrazioni degli under 16 e a disattivare gradualmente gli account esistenti, con completamento entro il 10 dicembre. Gli adolescenti coinvolti hanno ricevuto avvisi e un periodo di 14 giorni per scaricare dati e avvisare amici e contatti, prima che tutto venga congelato in attesa del loro sedicesimo compleanno. Secondo le stime fornite dalla stessa azienda, la misura riguarda circa mezzo milione di ragazzi australiani: 350.000 su Instagram e 150.000 su Facebook nella fascia 13-15. Chi viene colpito ingiustamente può contestare la decisione e avviare una procedura di verifica dell’età.

Meta ha dichiarato che utilizzerà una combinazione di tecniche: analisi del comportamento, controlli sulle informazioni dichiarate e, quando serve, sistemi di age assurance. Nei casi più sensibili si appoggerà a Yoti, che fornisce stime facciali tramite selfie video, oppure richiederà l’upload di documenti. Mia Garlick, responsabile policy per Meta Australia, e Antigone Davis, a capo della sicurezza globale, hanno ribadito la preferenza per un modello in cui l’età venga verificata a livello di sistema operativo o app store: un sistema più standardizzato e, secondo loro, meno intrusivo.

Sul fronte regolatorio, la eSafety ha pubblicato linee guida con esempi di ciò che rientra nei “ragionevoli passi”: monitoraggio proattivo degli account sospetti, controlli sul comportamento, uso selettivo ma non sistematico di tecnologie biometriche, verifiche contestuali solo quando necessario. L’OAIC, invece, ha fissato paletti precisi per evitare che la protezione dei minori diventi un cavallo di Troia per nuove raccolte di dati sensibili. La Privacy Commissioner Carly Kind ha sottolineato che “tutelare i ragazzi non deve significare normalizzare l’identificazione biometrica”.

Sul perché l’Australia abbia deciso di intervenire in modo così radicale, il governo del Primo ministro Anthony Albanese cita un insieme di fattori: letteratura crescente su ansia, disturbi alimentari, insonnia, cyberbullismo, esposizione a contenuti nocivi, oltre al ruolo del design persuasivo (notifiche, scroll infinito, raccomandazioni personalizzate) nel catturare l’attenzione dei più giovani. Il fulcro dell'intervento è il login: eliminare la possibilità di avere un profilo significa, secondo l’esecutivo, intervenire nel punto in cui nascono e si consolidano le dinamiche più problematiche per gli under 16.

La classificazione delle piattaforme, però, non è così lineare. YouTube, inizialmente considerata potenzialmente esentabile per le sue finalità educative, è stata poi inclusa nel perimetro proprio perché permette interazione sociale e una vera e propria community economy. Discord e Roblox, invece, pur avendo funzioni social, restano fuori: una scelta dettata dall’intenzione di garantire ai ragazzi alcuni spazi digitali più controllati e meno orientati alla performance sociale. Ma il regolatore avverte: l’elenco “non è statico”. Tutto può cambiare in base all’evoluzione tecnica e ai rischi osservati.

Il cuore del problema, però, resta uno: come verificare l’età online? L’Age Assurance Technology Trial, commissionato dal governo, ha testato diverse soluzioni: stime biometriche, caricamento di documenti, consenso dei genitori, controlli a livello di telefono o app store, sistemi inferenziali basati su pattern di uso. Il risultato è stato chiaro: gli errori sono inevitabili, soprattutto tra i 14 e i 17 anni. Le tecnologie di stima facciale, comprese quelle attribuite a Yoti, mostrano margini non trascurabili: possono scambiare un quindicenne per un diciottenne, o bloccare un diciassettenne perché “sembra” più giovane. E in un sistema che può togliere o concedere l’accesso a interi pezzi di vita digitale, la precisione conta. Per questo il governo non ha imposto una sola tecnologia, ma un mosaico di strumenti, affiancato da meccanismi di appello.

Intanto, cosa accade agli account? Le piattaforme stanno offrendo la possibilità di scaricare foto, messaggi, video, contatti. In alcuni casi i contenuti non vengono cancellati ma sospesi, pronti a riapparire quando l’utente compirà i 16 anni. È una sorta di “ibernazione digitale” pensata per salvare la memoria senza contravvenire alla legge. Nel frattempo, Messenger e altri strumenti di messaggistica restano attivi: una valvola di sicurezza per la socialità quotidiana.

Non mancano le critiche. Gli esperti di politiche digitali avvertono che un divieto rigido può spingere gli adolescenti verso piattaforme meno controllate, VPN e app clandestine, sfuggendo completamente ai radar dei regolatori. Google/YouTube ha espresso timori simili: togliere l’account agli under 16 significa anche togliere i guardrail progettati appositamente per loro, come autoplay limitato o filtri sulle raccomandazioni. Le organizzazioni per la privacy, invece, temono che la necessità di “dimostrare la maggiore età” possa normalizzare l’uso di documenti e dati biometrici da parte di minori, in un Paese che non dispone di un’identità digitale universale. C’è poi un tema sociale: non tutte le famiglie hanno strumenti, tempo o volontà per seguire queste procedure; non tutti i ragazzi vivono con genitori in grado di autorizzarli o assisterli. L’inclusione digitale rischia di diventare una discriminante.

La politica dietro la norma ha visto un consenso trasversale, presentato come un “primato mondiale”. Alcuni osservatori notano però un iter accelerato e il fatto che molti dettagli siano stati delegati a linee guida successive. Non è escluso che vi siano ricorsi, soprattutto su profili costituzionali legati alla libertà di comunicazione politica, anche se la questione resta aperta e molto tecnica.

Fuori dall’Australia, il caso è seguito con attenzione. La Commissione europea osserva; Nuova Zelanda e Paesi Bassi valutano misure simili; negli Stati Uniti proliferano leggi statali su limiti orari e consenso genitoriale. Ma nessun altro Paese ha ancora adottato un divieto nazionale così ampio e strutturale. Nei prossimi mesi si capirà se il modello australiano sarà esportabile o se resterà un esperimento isolato.

L’applicazione pratica del sistema prevede che le piattaforme individuino i probabili under 16 analizzando comportamenti, segnalazioni, incongruenze nei dati; inviino avvisi; offrano il download dei dati; e infine disattivino gli account. Per chi contesta, saranno previsti percorsi di verifica tramite documenti o selfie video, con obblighi stringenti di minimizzazione e cancellazione dei dati biometrici. Le aziende saranno giudicate non in base al numero di minori effettivamente bloccati, ma alla solidità dei processi interni, alla trasparenza e alla capacità di tutelare i diritti.

Resta aperta la questione dei contenuti pubblici: un minore potrà ancora guardare video su YouTube senza login? In molti casi sì, ma dipenderà dalle impostazioni regionali. Paradossalmente, meno tracce un ragazzo lascia online, meno protezioni algoritmiche potrà ricevere: un problema sollevato da chi teme che il divieto crei “zone d’ombra” dove la sicurezza diminuisce invece di aumentare.

Intanto, famiglie e scuole iniziano a orientarsi. I genitori controllano i dispositivi, attivano parental control, parlano con i figli di come rimanere raggiungibili e salvare i contenuti. Le scuole preparano indicazioni operative e ricordano ai ragazzi che, se vengono bloccati ingiustamente, esistono canali ufficiali per ricorrere, senza cedere dati sensibili a soggetti non autorizzati.

La posta in gioco va oltre la sicurezza: riguarda l’autonomia, la socialità, la costruzione dell’identità nell’età in cui tutto cambia rapidamente. La scommessa australiana è ridurre l’esposizione dei più giovani a dinamiche che il governo considera dannose, ma senza scivolare in un regime di controllo permanente. Per riuscirci servono tre condizioni: che i “passi ragionevoli” non diventino un lasciapassare per tecnologie invasive; che non nasca un ecosistema clandestino più difficile da controllare; che esistano davvero alternative attrattive, creative, educative, non solo imposte dagli adulti.

Se l’Australia riuscirà a trovare questo equilibrio, non avrà semplicemente spento degli account: avrà inaugurato il primo capitolo di una nuova grammatica dell’infanzia digitale. In caso contrario, la grande paura è che a spegnersi non siano i rischi, ma gli strumenti per comprenderli e governarli.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori