Negli ultimi anni i dispositivi indossabili basati su intelligenza artificiale hanno iniziato a diffondersi rapidamente nel mercato consumer, trasformando occhiali, auricolari e smartwatch in strumenti di interazione costante con sistemi digitali avanzati. Tra i prodotti più emblematici di questa nuova categoria tecnologica vi sono gli occhiali intelligenti sviluppati da Meta in collaborazione con il marchio Ray-Ban. Tuttavia, una recente indagine giornalistica ha sollevato importanti interrogativi sulla gestione dei dati raccolti da questi dispositivi, portando all’avvio di una causa legale negli Stati Uniti contro l’azienda. La controversia riguarda in particolare la scoperta che parte dei video e delle immagini registrate dagli occhiali sarebbe stata esaminata manualmente da lavoratori umani incaricati di addestrare i sistemi di intelligenza artificiale.
Gli occhiali Ray-Ban Meta rappresentano uno dei tentativi più ambiziosi di integrare l’intelligenza artificiale direttamente in un dispositivo indossabile quotidiano. Il prodotto combina l’estetica tradizionale degli occhiali Ray-Ban con componenti tecnologiche avanzate, tra cui fotocamere integrate, microfoni multipli, connettività wireless e accesso a un assistente AI sviluppato da Meta. Grazie a queste funzionalità, gli utenti possono registrare foto e video in prima persona, trasmettere contenuti in streaming, ottenere informazioni su ciò che osservano e interagire con servizi digitali tramite comandi vocali.
Questa combinazione di hardware indossabile e software basato su intelligenza artificiale richiede però l’elaborazione di grandi quantità di dati visivi e audio. Per consentire funzioni come il riconoscimento degli oggetti, la traduzione di testi o l’assistenza contestuale, il dispositivo deve trasmettere parte delle informazioni raccolte ai server cloud dell’azienda, dove vengono analizzate attraverso modelli di machine learning e sistemi di computer vision. In molti casi, tali dati vengono utilizzati anche per migliorare l’addestramento degli algoritmi, una pratica comune nel settore dell’intelligenza artificiale.
La controversia che ha portato alla causa legale nasce proprio dal modo in cui questi dati vengono utilizzati durante il processo di addestramento dei modelli AI. Un’indagine condotta da alcuni quotidiani svedesi ha rivelato che parte dei contenuti registrati dagli occhiali sarebbe stata inviata a una società di annotazione dei dati con sede a Nairobi, in Kenya. In questo contesto, migliaia di lavoratori incaricati di etichettare immagini e video avrebbero esaminato manualmente il materiale per classificare scene, oggetti e contesti utili all’addestramento degli algoritmi.
Secondo le testimonianze raccolte durante l’indagine, i revisori umani avrebbero visualizzato contenuti estremamente sensibili registrati involontariamente dagli utenti, tra cui situazioni private come persone che si spogliano, momenti intimi o individui ripresi in bagno. Alcuni lavoratori hanno dichiarato che molte delle persone presenti nei video probabilmente non erano consapevoli del fatto che le loro immagini sarebbero state analizzate da operatori umani.
Le rivelazioni hanno rapidamente attirato l’attenzione di autorità di regolamentazione e organizzazioni per la tutela della privacy. Anche l’Information Commissioner’s Office del Regno Unito ha dichiarato di voler richiedere chiarimenti a Meta sulle modalità con cui vengono gestiti i dati personali raccolti dagli occhiali intelligenti e sulla conformità delle pratiche aziendali alle normative sulla protezione dei dati.
Parallelamente, negli Stati Uniti è stata avviata una class action da parte di due utenti che avevano acquistato il dispositivo confidando nelle promesse di privacy presenti nelle campagne di marketing. I querelanti sostengono che Meta abbia promosso gli occhiali con slogan come “designed for privacy, controlled by you”, inducendo i consumatori a credere che i contenuti registrati sarebbero rimasti privati o elaborati esclusivamente da sistemi automatizzati. Secondo l’accusa, l’esistenza di un processo di revisione umana dei video rappresenterebbe una informazione rilevante che non sarebbe stata adeguatamente comunicata ai clienti.
La causa legale sostiene inoltre che la trasmissione dei video ai server cloud dell’azienda e successivamente a fornitori esterni per l’annotazione dei dati potrebbe costituire una violazione delle normative sulla tutela dei consumatori e delle leggi sulla privacy. I querelanti ritengono che gli utenti non siano stati informati in modo sufficientemente chiaro del fatto che il materiale registrato potesse essere visualizzato da operatori umani situati in altri paesi.
Meta ha risposto alle accuse affermando che i contenuti rimangono sul dispositivo dell’utente salvo quando vengono condivisi volontariamente con i servizi AI dell’azienda. In tali casi, ha spiegato la società, alcune informazioni possono essere analizzate anche da revisori umani allo scopo di migliorare il funzionamento dei sistemi e la qualità dell’esperienza utente. L’azienda sostiene inoltre di adottare tecniche di filtraggio dei dati per ridurre la possibilità che informazioni identificabili o sensibili vengano esposte durante il processo di revisione.
Tuttavia, alcune testimonianze raccolte durante l’indagine indicano che i sistemi automatici di anonimizzazione, come la sfocatura dei volti, non funzionerebbero sempre in modo affidabile. Questo significa che i revisori potrebbero talvolta vedere immagini in cui le persone sono identificabili o coinvolte in situazioni private, aumentando il rischio di violazioni della privacy.
La vicenda si inserisce in un dibattito più ampio riguardo alle implicazioni etiche dei dispositivi indossabili dotati di capacità di registrazione e analisi automatica dei dati. Gli occhiali intelligenti, a differenza di smartphone o videocamere tradizionali, possono essere utilizzati in modo quasi invisibile e registrare continuamente ciò che l’utente osserva. Questo solleva interrogativi non solo sulla protezione dei dati dell’utilizzatore, ma anche sulla privacy delle persone che si trovano nelle vicinanze e che possono essere riprese senza saperlo.
Secondo diversi esperti di privacy e protezione dei dati, l’utilizzo di contenuti raccolti da dispositivi indossabili per addestrare sistemi di intelligenza artificiale rappresenta una delle sfide più complesse per la regolamentazione tecnologica contemporanea. I modelli AI moderni richiedono infatti enormi quantità di dati reali per migliorare la loro capacità di comprendere il mondo visivo e sociale, ma l’origine di questi dati può coinvolgere informazioni personali estremamente sensibili.
Il caso legale contro Meta potrebbe quindi avere implicazioni che vanno oltre il singolo prodotto. Se i tribunali dovessero stabilire che la gestione dei dati degli occhiali AI non rispetta adeguatamente le norme sulla trasparenza e sul consenso informato, l’intero settore dei dispositivi indossabili intelligenti potrebbe essere costretto a rivedere le proprie pratiche di raccolta e utilizzo dei dati.
In un momento in cui le aziende tecnologiche stanno investendo sempre più nello sviluppo di assistenti AI integrati negli oggetti quotidiani, il bilanciamento tra innovazione tecnologica e tutela della privacy sta diventando una delle questioni centrali dell’economia digitale. Gli occhiali intelligenti rappresentano solo uno dei primi esempi di questa nuova generazione di dispositivi sempre connessi e sempre attivi, destinati a trasformare il modo in cui le persone interagiscono con il mondo digitale e con l’intelligenza artificiale.
