LinkedIn ha annunciato che utilizzerà i dati degli utenti per addestrare i suoi modelli di intelligenza artificiale (AI). Questo seguito all’iniziativa di altre piattaforme come Meta e X (Twitter).
Secondo quanto riportato da The Verge, LinkedIn ha rilasciato un aggiornamento sulla sua politica sulla privacy e ha introdotto nuove impostazioni e un modulo di rinuncia.
L’azienda ha dichiarato: “Utilizziamo i tuoi dati personali per migliorare, sviluppare e fornire i nostri prodotti e servizi, oltre a formare modelli di intelligenza artificiale. Questo ci aiuta a rendere i nostri servizi più pertinenti e utili per te e per gli altri.”
Gli utenti possono revocare il consenso andando nella sezione Privacy dei dati nelle impostazioni del proprio account e selezionando “Dati per migliorare l’intelligenza artificiale generativa”.
È importante notare che, se un utente sceglie di rinunciare, LinkedIn e le sue affiliate non utilizzeranno più i dati personali o i contenuti dell’utente per addestrare modelli futuri, ma ciò non influenzerà la formazione già completata.
Per proteggere la privacy degli utenti, LinkedIn ha affermato di utilizzare tecnologie per cancellare o modificare le informazioni personali. Inoltre, i dati degli utenti residenti nell’UE o in Svizzera, dove è vietato utilizzare dati personali per l’apprendimento dell’AI, non vengono utilizzati per l’addestramento dei modelli.
Questa impostazione si riferisce specificamente ai dati usati per addestrare modelli di intelligenza artificiale generativa. LinkedIn ha anche altri strumenti di apprendimento automatico per la personalizzazione che non sono coinvolti nella creazione di contenuti. Per impedire l’uso dei propri dati in questi strumenti, gli utenti devono compilare un modulo di opposizione separato, quindi è necessario rinunciare due volte.
Dopo Meta e X, anche altri social media stanno introducendo opzioni di rinuncia per l’apprendimento dell’AI. Tuttavia, ci sono preoccupazioni, poiché molte di queste aziende hanno utilizzato i dati degli utenti per addestrare l’AI senza comunicarlo. Ora, con normative più rigorose, stanno introducendo silenziosamente queste opzioni di rinuncia.
Recentemente, ABC News ha riportato che Meta stava addestrando modelli di AI utilizzando i dati di Facebook e Instagram dal 2007, ammettendo solo dopo ulteriori domande di averlo fatto.