Nell’attuale clima di rapida espansione dell’Intelligenza Artificiale, ogni mossa dei giganti tecnologici viene scrutata con un livello di sospetto senza precedenti, soprattutto quando si tratta dell’utilizzo dei dati personali. Di recente, una controversia accesa sui social media ha messo in discussione la politica di Google relativa alla privacy, con affermazioni diffuse secondo cui i messaggi e gli allegati di Gmail verrebbero utilizzati, in segreto, per addestrare il suo modello di Intelligenza Artificiale di punta, Gemini. Questo scenario ha spinto gli utenti a sollecitare la disattivazione immediata delle “funzionalità intelligenti” di Gmail, nel tentativo di arginare quella che percepivano come una potenziale violazione della loro riservatezza.

Di fronte a queste accuse, Google è intervenuta con una smentita categorica per tentare di sedare l’allarme. Jenny Thompson, portavoce dell’azienda, ha rilasciato una dichiarazione a The Verge definendo i resoconti circolanti come “fuorvianti”. La posizione ufficiale e definitiva di Google è stata ribadita con chiarezza: “Non utilizziamo i contenuti Gmail degli utenti per addestrare i modelli di intelligenza artificiale di Gemini”. La portavoce ha inoltre sottolineato che le politiche di base non sono cambiate e che le “funzionalità intelligenti” di Gmail esistono da anni, rassicurando il pubblico sul fatto che Google non ha mai modificato unilateralmente le impostazioni utente in modo da alterare la politica sulla privacy.

L’azienda tiene a precisare che, se attivate, le funzionalità intelligenti di Gmail e Workspace permettono agli utenti di godere di comode automazioni: queste includono il controllo ortografico avanzato, la verifica dello stato di consegna delle email, la categorizzazione intelligente e l’aggiunta automatica di informazioni sensibili, come i dettagli dei voli, direttamente al calendario personale. L’intento, come spiegato nella schermata delle impostazioni di Workspace, è quello di “personalizzare la tua esperienza attraverso contenuti e attività,” ma Google insiste che l’analisi di questi contenuti avviene solo per fornire le funzioni stesse e non per alimentare l’addestramento di modelli di intelligenza artificiale esterni come Gemini.

Nonostante le rassicurazioni ufficiali, la controversia è stata alimentata da un evento amministrativo interno che ha innescato una percezione di manipolazione da parte degli utenti. Lo scorso gennaio (o in un periodo simile), Google ha aggiornato il suo sistema per consentire agli utenti di gestire in modo separato le impostazioni personalizzate relative alle funzionalità intelligenti offerte in servizi correlati come Workspace, Maps e Wallet. L’azienda ha spiegato che questo processo ha comportato una modifica delle impostazioni utente necessaria per la separazione amministrativa dei servizi, ma ha ribadito che non si è trattato di una modifica della politica fondamentale sull’uso dei dati.

È proprio in questo re-shuffling amministrativo che è emerso il problema di fiducia: numerosi utenti hanno espresso ansia e frustrazione, lamentando di aver disattivato le funzionalità intelligenti in precedenza solo per vederle misteriosamente riattivate in seguito all’aggiornamento. Questa percezione di un cambiamento automatico e non richiesto delle impostazioni ha alimentato i sospetti, creando un terreno fertile per le voci di corridoio sulla presunta acquisizione di dati per l’addestramento di Gemini.

Il contesto attuale, segnato da una crescente ondata di controversie sulla privacy legate all’intelligenza artificiale, rende gli utenti più sensibili a qualsiasi segnale di opacità. La mancanza di fiducia in merito alle modifiche automatiche alle impostazioni continua a sollevare interrogativi fondamentali. Pertanto, nonostante Google abbia ribadito con forza che “i dati di Gmail non vengono utilizzati per addestrare Gemini” e abbia incoraggiato gli utenti a verificare personalmente le proprie impostazioni, è probabile che la controversia persisterà ancora per un po’. Questo episodio funge da monito sul fatto che, nell’era dell’AI, la trasparenza e la gestione del consenso sono tanto cruciali quanto lo sviluppo della tecnologia stessa.

Di Fantasy