AGGIORNAMENTI
Cerca
Attualità
05 Marzo 2026 - 12:22
I Ray-Ban Display esistono già. Ma non per l’Italia
Una donna entra in bagno, si sistema i capelli, si guarda allo specchio. Poco prima aveva detto “Hey Meta”. Non ci pensa più. Sugli occhiali la spia LED è accesa, ma passa inosservata. Più tardi farà una domanda banale all’assistente: «Sta bene questo rossetto con il mio tono di pelle?».
Quel breve video — privato, domestico, apparentemente innocuo — potrebbe però essere finito sullo schermo di un lavoratore a migliaia di chilometri di distanza, in Kenya. Non per curiosità, ma per lavoro.
È lo scenario emerso da un’inchiesta dei quotidiani svedesi Svenska Dagbladet e Göteborgs-Posten: alcuni annotatori dell’azienda Sama, società di data-labeling con sede operativa a Nairobi, raccontano di aver visionato clip registrate dagli occhiali Ray-Ban Meta. Video inviati dagli utenti all’AI per ricevere consigli o analisi — e poi entrati nei flussi di lavoro che servono a migliorare gli algoritmi.
Secondo le testimonianze raccolte, tra quelle immagini compaiono anche scene intime, momenti domestici privati, carte di pagamento inquadrate accidentalmente. Materiale che, nei fatti, diventa parte del carburante con cui si addestra l’intelligenza artificiale.
Formalmente non è un segreto. Nei documenti contrattuali di Meta è scritto che i contenuti condivisi con le funzioni AI possono essere analizzati per migliorare i sistemi, con revisioni sia automatiche sia manuali. Ma tra ciò che è scritto nelle policy e ciò che gli utenti percepiscono davvero c’è un vuoto enorme.
Ed è proprio lì che si apre il problema.
Quando un utente chiede all’assistente degli occhiali di descrivere una scena, identificare un oggetto o tradurre un testo, il dispositivo invia quel contenuto al cloud. Non è più solo una foto o un video salvato nella memoria locale: diventa un dato che entra in una pipeline tecnologica molto più ampia. Dentro quella pipeline, in alcuni casi, ci sono anche esseri umani.
È il lavoro della data annotation: persone che guardano immagini e video e li descrivono, li etichettano, li classificano. Senza questo passaggio gli algoritmi vedono, ma non capiscono. Ecco perché dietro l’intelligenza artificiale c’è sempre un esercito invisibile di lavoratori.
Il nome Sama non è nuovo nel mondo della moderazione online. Negli anni scorsi la società è stata coinvolta in controversie legate alla moderazione dei contenuti per Meta in Africa, con cause legali e discussioni sulle condizioni dei lavoratori. Nel 2023 l’azienda ha annunciato di voler uscire dal business della moderazione per concentrarsi proprio sulla data annotation per sistemi di computer vision.
Lo stesso tipo di lavoro che oggi, secondo l’inchiesta svedese, riguarda le clip generate dagli occhiali intelligenti.
La questione non è solo tecnologica. È anche legale.
Dopo la pubblicazione delle rivelazioni, l’autorità irlandese per la protezione dei dati — che in Europa supervisiona Meta — ha chiesto chiarimenti sulla possibile circolazione di registrazioni di utenti europei verso Paesi terzi, come il Kenya.
Se parti di quei video arrivano davvero fuori dall’Unione Europea, entrano in gioco le regole sui trasferimenti internazionali dei dati. Non basta dire che l’utente ha accettato i termini: servono garanzie contrattuali, protezioni tecniche, controlli sulla catena dei fornitori.
Il nodo, insomma, è la distanza tra consenso formale e consapevolezza reale.
Gli occhiali Ray-Ban Meta, sviluppati con EssilorLuxottica, vengono presentati come dispositivi progettati “con la privacy in mente”. Hanno una spia LED che segnala quando si registra e avvisi sonori durante lo streaming. Ma quando l’utente invia una foto o un breve video all’assistente per chiedere un consiglio, la percezione cambia. Non sembra più una registrazione pubblica, ma una conversazione privata con una macchina.
In realtà, dietro quella conversazione, può esserci un intero sistema industriale.
Il problema non riguarda solo Meta. Negli ultimi anni è emerso più volte che servizi basati sull’intelligenza artificiale utilizzano revisori umani: dagli smart speaker alle app di dettatura vocale. Ma con gli occhiali il confine diventa più sottile. Non parliamo più solo di parole o comandi vocali, ma del campo visivo delle persone. Di ciò che vedono ogni giorno: la casa, la famiglia, gli amici.
E quando la tecnologia entra nella vita quotidiana, la questione non è più solo tecnica. Diventa sociale.

La spia luminosa sugli occhiali, per esempio, segnala che qualcosa sta registrando. Ma non protegge chi è nella stanza e non sa di essere ripreso. Non protegge chi appare per caso nell’inquadratura. E non spiega dove finiranno davvero quei dati.
Per questo il caso sollevato dall’inchiesta svedese ha acceso immediatamente l’attenzione delle autorità europee. Nel continente dove il GDPR ha reso la protezione dei dati una questione di diritti civili, la promessa di una tecnologia “sempre connessa” deve fare i conti con un principio semplice: minimizzare i dati raccolti e garantire controlli reali agli utenti.
Dietro la comodità di un comando vocale — «Hey Meta, che pianta è questa?» — c’è un ecosistema complesso fatto di server, algoritmi e persone che guardano e classificano immagini.
È il paradosso dell’intelligenza artificiale contemporanea: più sembra automatica, più dipende dal lavoro umano.
L’inchiesta non dimostra che ogni video registrato dagli occhiali venga visto da un revisore umano. Ma dimostra qualcosa di più sottile: quando condividiamo contenuti con un assistente AI, quei dati possono entrare in sistemi dove qualcuno, da qualche parte nel mondo, li osserva per addestrare la macchina.
Per gli utenti la scelta diventa sempre più chiara: comodità tecnologica o controllo dei propri dati.
Per le aziende la sfida è ancora più grande: innovare senza perdere la fiducia delle persone.
Perché gli occhiali intelligenti non vinceranno solo grazie alla potenza dell’hardware o alla qualità dell’AI. Vinceranno — o falliranno — sulla base di una promessa molto più fragile: quella di non guardare troppo dentro la vita di chi li indossa.
Edicola digitale
I più letti
Ultimi Video
LA VOCE DEL CANAVESE
Reg. Tribunale di Torino n. 57 del 22/05/2007. Direttore responsabile: Liborio La Mattina. Proprietà LA VOCE SOCIETA’ COOPERATIVA. P.IVA 09594480015. Redazione: via Torino, 47 – 10034 – Chivasso (To). Tel. 0115367550 Cell. 3474431187
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70 e della Legge Regione Piemonte n. 18 del 25/06/2008. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo
Testi e foto qui pubblicati sono proprietà de LA VOCE DEL CANAVESE tutti i diritti sono riservati. L’utilizzo dei testi e delle foto on line è, senza autorizzazione scritta, vietato (legge 633/1941).
LA VOCE DEL CANAVESE ha aderito tramite la File (Federazione Italiana Liberi Editori) allo IAP – Istituto dell’Autodisciplina Pubblicitaria, accettando il Codice di Autodisciplina della Comunicazione Commerciale.