La controversia relativa all’installazione automatica del modello AI Gemini Nano all’interno di Google Chrome sta aprendo un nuovo fronte nel dibattito internazionale sulla distribuzione delle funzionalità di intelligenza artificiale direttamente sui dispositivi degli utenti. Al centro delle accuse vi è il comportamento del browser Chrome, che secondo le analisi pubblicate dal ricercatore di sicurezza e privacy Alexander Hanf scaricherebbe automaticamente un modello AI locale da circa 4 GB senza consenso esplicito o notifica preventiva all’utente.
Secondo quanto emerso dall’analisi tecnica, il modello installato sarebbe Gemini Nano, il piccolo large language model sviluppato da Google per alimentare funzionalità AI integrate direttamente nel browser. Tra queste figurano il sistema “Help me write”, il rilevamento di phishing e frodi, strumenti di assistenza contestuale e nuove funzioni sperimentali legate alla cosiddetta “AI Mode” introdotta nelle versioni più recenti di Chrome.
La componente più critica della vicenda riguarda le modalità operative del download. Hanf sostiene che il file principale del modello, identificato come “weights.bin”, venga installato automaticamente all’interno della directory “OptGuideOnDeviceModel” del profilo utente Chrome. Il file avrebbe dimensioni prossime ai 4 GB e verrebbe scaricato anche in assenza di utilizzo diretto delle funzionalità AI da parte dell’utente.
Il ricercatore afferma di aver monitorato il comportamento del browser attraverso l’analisi dei log .fseventsd di macOS, cioè il sistema di tracciamento degli eventi del file system Apple. Secondo questa ricostruzione, un’istanza di Chrome mai utilizzata manualmente avrebbe avviato automaticamente il download completo del modello Gemini Nano nel giro di circa 14 minuti dalla creazione del profilo browser.
L’analisi dei log avrebbe inoltre evidenziato la presenza del processo “com.google.Chrome.chrome_chrome_Unpacker_BeginUnzipping”, interpretato come prova del fatto che l’installazione avvenga direttamente all’interno del processo Chrome stesso e non tramite un updater separato o un sistema operativo esterno. Nei file di stato interni del browser sarebbero inoltre presenti informazioni relative alla versione del modello AI installato e ai risultati delle verifiche hardware effettuate dal browser su GPU, CPU e memoria disponibile.
Secondo quanto emerso, Chrome non distribuirebbe Gemini Nano indiscriminatamente a tutti i dispositivi. Il browser sembrerebbe infatti eseguire controlli preventivi sulle specifiche hardware del sistema, installando il modello soltanto sui computer che superano determinate soglie minime di RAM, potenza GPU e capacità computazionale. Questo comportamento suggerisce l’esistenza di un sistema di deployment condizionale integrato direttamente nell’architettura browser.
La strategia di Google Chrome riflette una trasformazione molto più ampia del mercato AI: il progressivo spostamento delle inferenze dai server cloud verso modelli on-device. L’esecuzione locale dei modelli AI consente infatti di ridurre latenza, migliorare privacy teorica e diminuire il carico sui data center centrali. Gemini Nano è stato progettato proprio per questo scenario, cioè funzionare direttamente sui dispositivi degli utenti senza richiedere necessariamente elaborazione remota continua.
Tuttavia, la polemica nasce dal fatto che, secondo i ricercatori, molte delle funzionalità AI principali di Chrome continuerebbero comunque a dipendere pesantemente dal cloud Google. In particolare, la nuova “AI Mode” introdotta nella versione 147 di Chrome potrebbe indurre gli utenti a credere che l’intelligenza artificiale venga eseguita localmente, mentre gran parte delle richieste operative verrebbe ancora inoltrata ai server remoti dell’azienda.
Questa distinzione è importante perché modifica radicalmente il bilancio costi-benefici per l’utente. I dispositivi locali sopportano infatti il costo di archiviazione permanente di modelli da diversi gigabyte e il traffico dati necessario al download, senza ottenere necessariamente un’elaborazione AI completamente offline. Secondo Hanf, questo comportamento potrebbe configurare una forma di “dark pattern”, cioè un design dell’interfaccia che induce l’utente a interpretazioni fuorvianti sulle reali modalità operative del sistema.
Le accuse assumono particolare rilevanza anche sotto il profilo normativo europeo. I ricercatori sostengono infatti che il download automatico di modelli AI possa entrare in conflitto con l’articolo 5(3) della Direttiva ePrivacy dell’Unione Europea, che richiede consenso preventivo per la memorizzazione di informazioni sui dispositivi degli utenti. Parallelamente, viene citato anche il possibile contrasto con alcuni principi fondamentali del GDPR, in particolare quelli relativi a trasparenza, correttezza e “privacy by design”.
Il punto più delicato riguarda il fatto che, secondo l’analisi, il browser scaricherebbe nuovamente il modello anche dopo eliminazione manuale da parte dell’utente. Questo comportamento viene considerato problematico perché renderebbe estremamente difficile impedire in modo definitivo la presenza del modello sul dispositivo senza intervenire manualmente su flag avanzati di Chrome o policy enterprise.
Le soluzioni proposte da Hanf mirano principalmente a introdurre maggiore trasparenza operativa. Tra le richieste figurano notifiche preventive prima del download, attivazione del modello soltanto al primo utilizzo reale delle funzionalità AI, indicazione esplicita delle dimensioni del modello e della posizione di archiviazione, oltre alla possibilità di eliminazione permanente senza reinstallazione automatica.
La vicenda si inserisce inoltre in un contesto più ampio di crescente tensione tra aziende AI e utenti finali riguardo al controllo dei dispositivi personali. Solo poche settimane prima erano emerse polemiche relative a Claude Desktop di Anthropic, accusato di modificare automaticamente configurazioni native di browser Chromium-based senza autorizzazione esplicita.
