Quando pensi ad Anthropic, immagineresti un assistente virtuale pronto ad aiutarti via chat. Ma ora, con l’arrivo di Claude for Chrome, l’assistente non resta più confinato in una finestra separata: entra direttamente nel tuo browser. È come se avessi un collega digitale che osserva il tuo schermo, clicca al posto tuo, compila moduli e ti suggerisce risposte—tutto in tempo reale.
Anthropic non ha lanciato questo strumento per tutti, almeno non ancora. Claude for Chrome è disponibile solo per 1.000 utenti selezionati con il piano Max (tra 100 e 200 $ al mese). È un’anteprima controllata, una fase sperimentale pensata per raccogliere feedback reali e rafforzare le difese prima di distribuirlo a tutti.
Ma ci sono promemoria seri dietro questa operazione: dando all’intelligenza artificiale la possibilità di interagire direttamente con il browser e con i tuoi dati, emergono rischi che vanno oltre un semplice bug.
In parole semplici, una “prompt injection” è quando qualcuno nasconde istruzioni malevole dentro pagine web, email o documenti, e Claude le esegue senza rendersi conto del pericolo. In test aggressivi, senza alcuna protezione, Anthropic ha scoperto che il browser-based Claude veniva “ingannato” nel 23,6% dei casi. In un esempio inquietante, un’email fasulla che richiedeva la cancellazione delle mail sotto pretesti di “hygiene” veniva eseguita immediatamente dall’assistente—senza alcuna conferma.
Fortunatamente, la sicurezza non è stata trascurata. Ecco alcune contromisure implementate:
- Permessi sito per sito: l’utente decide esattamente quali siti può leggere o sui quali può agire Claude.
- Conferme obbligatorie: azioni ad alto rischio—come acquisti, pubblicazioni o condivisione di dati sensibili—richiedono esplicita conferma, anche in modalità autonoma.
- Blocchi automatici: Claude non può navigare su siti considerati potenzialmente rischiosi—banche, servizi finanziari, contenuti per adulti, e simili.
- Prompt raffinati e filtri intelligenti: il sistema guida Claude a riconoscere istruzioni sospette e a rifiutare quelle ingannevoli. Con queste difese, il tasso di successo degli attacchi è sceso dall’iniziale 23,6% a un più rassicurante 11,2%.
Per quanto riguarda attacchi più sofisticati, come istruzioni nascoste nel DOM (come campi invisibili nei form) o nelle stringhe degli URL o nei titoli delle schede, Anthropic è riuscita a ridurre il tasso di successo dal 35,7% a… zero. Un ottimo risultato—ma che richiede vigilanza costante.
Il vero valore di Claude for Chrome risiede nella sua capacità di trasformarsi in un assistente attivo, mentre lavori—gestire email, pianificare calendari, redigere bozze. Ma inserire un’intelligenza artificiale così “agente” nel browser significa anche ampliare enormemente la superficie di attacco potenziale.
Anthropic ne è consapevole: questo rollout limitato è una fase cruciale per raccogliere scenari reali, capire dove le strategie attuali funzionano, e potenziare quelle che ancora risultano fragili.
Su Hacker News, gli utenti non hanno nascosto i loro timori. Un commento cattura bene il rischio: “Se il tuo agente ha accesso ai tuoi dati privati, può esser esposto a contenuti malevoli e comunicare esternamente—il potenziale di fuga di dati è reale.”
Altri notano che affidare azioni autonome a un’AI richiede garanzie davvero robuste, perché qualsiasi errore può avere effetti irreversibili.