Immagine AI

Negli ultimi mesi Microsoft ha intensificato in modo evidente la propria esplorazione nel campo degli agenti di intelligenza artificiale capaci non solo di rispondere, ma di agire direttamente sui computer e sul web. In questo contesto si inserisce il caso di OpenClaw, un agente AI molto discusso che, secondo quanto riportato da fonti interne e dalla stampa specializzata, è stato testato direttamente dai vertici dell’azienda, incluso il CEO Satya Nadella. Nonostante l’interesse e la curiosità iniziale, la valutazione interna è stata chiara: OpenClaw non è considerato, allo stato attuale, un prodotto adatto al consumo di massa, principalmente a causa di rischi di sicurezza giudicati troppo elevati.

Secondo le ricostruzioni, Nadella avrebbe iniziato personalmente a testare OpenClaw e avrebbe incoraggiato anche altri dirigenti a sperimentarne le potenzialità, spiegando in prima persona come lo stesse utilizzando e quali scenari applicativi immaginasse. Questo passaggio non è stato letto come un semplice esercizio di curiosità tecnologica, ma come parte di una strategia più ampia di Microsoft per capire fino a che punto gli agenti AI possano diventare una componente strutturale dei suoi prodotti futuri.

Il contesto interno, tuttavia, era tutt’altro che tranquillo. Poco prima dei test su OpenClaw, Microsoft aveva attraversato una fase di tensione legata all’emergere di Anthropic e in particolare del suo strumento Claude Cowork, percepito da diversi responsabili di prodotto come un potenziale concorrente diretto di Microsoft 365 Copilot. Le preoccupazioni non erano teoriche: Cowork aveva dimostrato una notevole capacità di creare e manipolare file Excel e PowerPoint in modo autonomo, toccando proprio il cuore dell’offerta Copilot.

Non a caso, già dalla fine dello scorso anno Nadella aveva espresso apertamente insoddisfazione per l’adozione delle funzionalità AI integrate nelle applicazioni Office, definendole al di sotto delle aspettative iniziali. Da quel momento, il CEO ha assunto un coinvolgimento diretto nella gestione e nell’evoluzione dei prodotti Copilot, segnalando quanto Microsoft consideri strategico il passaggio da un’AI puramente conversazionale a un’AI operativa, capace di eseguire azioni concrete.

In questo scenario, OpenClaw e Cowork sono diventati per Microsoft non solo possibili minacce esterne, ma anche punti di riferimento tecnologici. Fonti interne indicano che l’azienda stia già lavorando a un prototipo proprietario di agente AI con funzionalità simili a quelle di Cowork, osservando con attenzione anche il fatto che quest’ultimo sia stato inizialmente rilasciato solo su macOS, un dettaglio visto come un’opportunità competitiva. Il segnale è chiaro: la traiettoria del settore si sta spostando rapidamente oltre l’AI che “parla”, verso un’AI che agisce, naviga interfacce, clicca, compila, esegue.

Proprio su questo punto, però, emergono le criticità più profonde. Il team di sicurezza AI di Microsoft ha pubblicato un rapporto interno di revisione su OpenClaw, arrivando a una conclusione netta: lo strumento non rappresenta una soluzione completa e affidabile per gli agenti. Nel documento viene chiarito che OpenClaw non rende automaticamente sicuri gli agenti basati su browser e che, anzi, sistemi di questo tipo possono introdurre rischi imprevisti quando hanno la capacità di operare direttamente sul web come farebbe un essere umano.

Gli esperti di sicurezza hanno evidenziato problemi strutturali che vanno dall’abuso di privilegi alla possibile fuga di informazioni personali, fino a forme avanzate di attacchi tramite prompt injection. Particolarmente preoccupante è stata la scoperta di una vulnerabilità definita come “esecuzione di codice remoto con un solo clic”, in cui un semplice link malevolo poteva consentire il furto del token di autenticazione dell’utente e il controllo completo del sistema da parte di un attaccante. A seguito di queste segnalazioni, il team di sviluppo di OpenClaw ha rilasciato in fretta una versione correttiva e, pochi giorni dopo, un aggiornamento che rafforza in modo significativo le misure di sicurezza.

Nonostante questi interventi, la prudenza resta alta. Anche dopo le patch, gli esperti continuano a mettere in guardia contro l’installazione di competenze o estensioni esterne non verificate, sottolineando come la superficie di attacco di agenti capaci di “agire” sia intrinsecamente più ampia rispetto a quella di un semplice chatbot. Più un’AI ha accesso diretto a browser, file di sistema e flussi di lavoro reali, più diventa delicato garantire che ogni azione resti sotto controllo.

Allo stesso tempo, Microsoft riconosce apertamente perché OpenClaw abbia attirato così tanta attenzione. La sua forza sta nell’aver permesso alle persone di agire in modo immediato e personale, offrendo uno scorcio concreto su un futuro in cui gli agenti AI utilizzano i computer in modo simile agli esseri umani. È proprio questa promessa, però, a rendere il problema della sicurezza centrale e non più rimandabile.

Di Fantasy