Immagine AI

L’evoluzione degli agenti autonomi di intelligenza artificiale sta ponendo sfide senza precedenti alla scalabilità e alla sicurezza delle infrastrutture cloud. Recentemente, Google ha implementato una serie di restrizioni mirate sull’accesso ad Antigravity, la propria piattaforma avanzata di sviluppo assistito dall’IA, a seguito di quello che è stato definito un aumento massiccio di utilizzi non conformi ai termini di servizio. Al centro della vicenda si trova l’interazione tra i token di autenticazione di Gemini e il framework open source OpenClaw, una combinazione che ha generato un carico di lavoro anomalo sui sistemi di backend, portando a un degrado sensibile della qualità del servizio per l’intera base utenti.

Il problema tecnico risiede nella natura stessa del routing dei token tramite interfacce di terze parti. OpenClaw, agendo come un wrapper o un proxy per i modelli linguistici di Google, permetteva agli utenti di instradare le richieste computazionali al di fuori dell’interfaccia proprietaria di Antigravity. Questo meccanismo ha consentito un consumo di token e di potenza di calcolo che eccedeva ampiamente le soglie previste dai piani di abbonamento standard, inclusi quelli di fascia alta come AI Ultra. In termini architetturali, l’uso di agenti autonomi tramite questi gateway esterni crea loop di esecuzione continua e chiamate API ad alta frequenza che saturano rapidamente le istanze di calcolo allocate, trasformando di fatto un servizio pensato per l’interazione umana in un backend per automazioni industriali non autorizzate.

Dal punto di vista della sicurezza informatica, l’integrazione di account Google all’interno di framework non verificati come OpenClaw solleva criticità legate alla gestione delle credenziali OAuth. La pratica di estrarre token di sessione da ambienti protetti per utilizzarli in script o strumenti esterni espone l’utente a rischi di esfiltrazione di dati e compromissione dell’account. Google ha rilevato che tale modalità operativa non solo viola i protocolli di sicurezza standard, ma facilita anche attività che possono essere classificate come malevole, quali il web scraping intensivo o l’abuso di risorse computazionali destinate alla ricerca e allo sviluppo software. La risposta tecnica è stata dunque la disattivazione immediata degli accessi per i profili che presentavano pattern di traffico sovrapponibili a quelli generati da agenti autonomi non autorizzati.

L’intervento ha sollevato un dibattito tecnico sulla trasparenza dei limiti operativi nelle piattaforme di IA generativa. Molti sviluppatori hanno segnalato l’assenza di avvisi preventivi o di sistemi di throttling graduale prima della sospensione definitiva del servizio. Tuttavia, dal lato del provider, la necessità di proteggere l’integrità dell’infrastruttura globale ha prevalso sulla gestione individuale dei singoli casi. La saturazione del backend di Antigravity non influisce solo sulla latenza delle risposte, ma può compromettere la stabilità dei modelli Gemini stessi, che condividono parte delle risorse di elaborazione tra diversi servizi dell’ecosistema Google Workspace e Cloud.

Questa stretta riflette una tendenza più ampia nel settore dell’intelligenza artificiale, dove anche altri attori come Anthropic hanno iniziato a limitare l’uso di token OAuth in strumenti esterni. La transizione verso ecosistemi più chiusi e controllati è dettata dalla necessità di bilanciare l’apertura agli sviluppatori con la sostenibilità economica e tecnica dei modelli di frontiera. Per Google, la sfida attuale consiste nel reintegrare quegli utenti che hanno agito in buona fede, inconsapevoli delle violazioni dei termini di servizio, senza però riaprire vulnerabilità che potrebbero essere nuovamente sfruttate per compromettere le prestazioni della piattaforma Antigravity.

Di Fantasy