Cerca

Attualità

LinkedIn userà i dati degli utenti europei per l’intelligenza artificiale: dal 3 novembre scatta la novità, ecco come opporsi

Il social professionale di Microsoft potrà usare profili e contenuti pubblici per addestrare l’IA generativa. Le autorità privacy europee, tra cui il Garante italiano, avviano verifiche sulla legittimità della scelta

LinkedIn userà i dati degli utenti

LinkedIn userà i dati degli utenti europei per l’intelligenza artificiale: dal 3 novembre scatta la novità, ecco come opporsi

Dal 3 novembre 2025 cambierà in modo sostanziale il rapporto tra gli utenti europei e LinkedIn, la piattaforma professionale di proprietà di Microsoft. La società ha infatti annunciato che inizierà a utilizzare i dati personali degli iscritti – inclusi quelli italiani – per addestrare i propri sistemi di intelligenza artificiale generativa. Una decisione che riguarda milioni di profili in Europa, Svizzera, Canada e Hong Kong e che, come precisato dalla stessa azienda, sarà attiva di default: chi non intende autorizzare l’uso dei propri dati dovrà intervenire manualmente nelle impostazioni del profilo o compilare un modulo dedicato.

L’annuncio, reso pubblico a fine settembre, ha già acceso il dibattito sulla tutela della privacy e sul confine – sempre più sottile – tra uso legittimo dei dati e sfruttamento a fini commerciali e tecnologici. LinkedIn ha spiegato che l’obiettivo è “migliorare l’esperienza d’uso e aiutare gli utenti a scoprire nuove opportunità professionali” attraverso l’uso dell’IA, specificando però che non verranno coinvolti i messaggi privati o le comunicazioni dirette.

Nel dettaglio, i dati utilizzati per l’addestramento dei modelli comprendono “dettagli del profilo e contenuti pubblici”, quindi informazioni come il nome, la professione, le competenze, i post e i commenti pubblicati sulla piattaforma. Questi elementi serviranno a migliorare i sistemi di intelligenza artificiale generativa, la tecnologia alla base dei nuovi strumenti che il social sta sviluppando per suggerire contenuti, ottimizzare i post, facilitare la scrittura dei curriculum e raffinare la ricerca di lavoro o di candidati.

Un uso che si inserisce nella più ampia strategia di Microsoft di integrare l’IA in tutti i suoi prodotti, da Copilot a Bing, fino alle suite di produttività come Word e Outlook. LinkedIn rappresenta, in questa prospettiva, un’enorme fonte di dati qualificati – circa 160 milioni di utenti solo in Europa – e una palestra ideale per testare algoritmi che imparano dalle esperienze professionali reali.

Tuttavia, l’utilizzo automatico dei dati per fini di addestramento non è piaciuto a molti iscritti, soprattutto per la scelta di rendere la funzione attiva di default, costringendo gli utenti a un’azione consapevole per negare il consenso. LinkedIn ha chiarito che la disattivazione è possibile in qualsiasi momento attraverso due canali:

  1. Dalle impostazioni del profilo: basta accedere alla sezione Impostazioni e privacy, poi a Privacy dei dati, e infine disattivare l’opzione “Dati per migliorare l’IA generativa” cliccando sul pulsante No.

  2. Tramite modulo online: si può compilare un apposito form disponibile sul sito ufficiale di LinkedIn, all’indirizzo https://www.linkedin.com/help/linkedin/ask/TS-DPRO, per richiedere formalmente la disattivazione.

La piattaforma sottolinea che la scelta non influirà sull’esperienza d’uso né sulle funzionalità di base del social, ma impedirà che i propri dati vengano impiegati per scopi di addestramento algoritmico.

La decisione di LinkedIn ha immediatamente attirato l’attenzione delle autorità europee per la protezione dei dati personali, che hanno avviato un coordinamento per verificare la conformità dell’iniziativa al Regolamento generale sulla protezione dei dati (GDPR). In Italia, il Garante Privacy ha confermato di essere “al lavoro con le altre autorità europee” per valutare se l’uso dei dati annunciato dalla società rispetti le norme sul consenso esplicito e sulla limitazione delle finalità.

La questione è tutt’altro che secondaria: il GDPR prevede che l’utilizzo dei dati personali per finalità diverse da quelle per cui sono stati raccolti richieda un consenso libero, specifico e informato. La scelta di attivare di default l’opzione sull’uso dei dati per l’IA potrebbe dunque sollevare più di una perplessità, anche se LinkedIn sostiene di agire nel pieno rispetto delle regole europee, richiamandosi alla base giuridica del “legittimo interesse”.

Non è la prima volta che un grande gruppo tecnologico si trova a dover rivedere le proprie pratiche di gestione dei dati. Negli ultimi mesi, casi analoghi hanno coinvolto anche Meta (Facebook e Instagram), che ha dovuto sospendere l’utilizzo dei contenuti europei per l’addestramento dell’IA generativa dopo le obiezioni delle autorità irlandesi e del Board europeo per la protezione dei dati.

Il dibattito, ancora una volta, si muove sul confine fragile tra innovazione tecnologica e tutela dei diritti digitali. Se da un lato le piattaforme sostengono che l’intelligenza artificiale rappresenti una risorsa per migliorare i servizi, dall’altro cresce il timore di una sistematica estrazione di dati personali a fini commerciali, spesso senza la piena consapevolezza degli utenti.

Gli esperti di diritto digitale sottolineano come la vera criticità non risieda solo nell’uso dei dati, ma nella asimmetria informativa tra utenti e piattaforme: “Quando un servizio attiva automaticamente una funzione che implica la raccolta o l’elaborazione di informazioni personali, è difficile parlare di consenso effettivo – spiega un docente di diritto dell’informatica del Politecnico di Milano –. Gli utenti tendono ad accettare per abitudine, spesso senza comprendere le implicazioni”.

L’obiettivo dichiarato di LinkedIn è quello di costruire un ecosistema digitale più efficiente, dove l’IA possa aiutare a scrivere post, suggerire connessioni, generare annunci di lavoro o lettere di presentazione personalizzate. Si tratta di funzioni già in fase di test negli Stati Uniti e destinate a espandersi anche in Europa entro il 2026.

In questa visione, l’intelligenza artificiale non sostituirebbe la componente umana del networking professionale, ma la affiancherebbe, rendendo più fluide le interazioni e i processi di selezione. Resta però il problema della gestione etica dei dati: in che misura un algoritmo, addestrato su milioni di profili reali, potrà evitare bias o distorsioni? E soprattutto, chi garantirà che i dati raccolti non vengano utilizzati per altri scopi?

La mossa di LinkedIn apre un precedente importante nel panorama dei social network professionali. Per la prima volta, un colosso globale del lavoro decide di integrare esplicitamente i dati degli utenti europei nei propri processi di addestramento dell’intelligenza artificiale. Se l’iniziativa passerà indenne al vaglio delle autorità, è probabile che anche altre piattaforme seguiranno la stessa strada.

Per gli utenti, la sfida sarà un’altra: prendere consapevolezza del valore dei propri dati. In un’epoca in cui le informazioni personali rappresentano la materia prima dell’innovazione, saper gestire consapevolmente le impostazioni della privacy non è più un dettaglio tecnico, ma un atto di cittadinanza digitale.

Commenti scrivi/Scopri i commenti

Condividi le tue opinioni su Giornale La Voce

Caratteri rimanenti: 400

Resta aggiornato, iscriviti alla nostra newsletter

Edicola digitale

Logo Federazione Italiana Liberi Editori