Immagine AI

Quando un’azienda come Deloitte annuncia un’intesa di portata mondiale con un laboratorio d’intelligenza artificiale come Anthropic, il risultato non può essere solo una dichiarazione nel comunicato stampa. È un segnale strategico, un’operazione che mira a ridefinire il modo in cui le grandi società di consulenza usano l’AI nei processi aziendali. Eppure, quel giorno stesso in cui fu resa pubblica la partnership, emerse un segnale d’allarme: Deloitte dovette ammettere che un report affidato al governo australiano conteneva errori generati dall’IA, al punto da dover restituire parte del compenso percepito. È un cortocircuito fra visione e realtà che mette in luce le potenzialità — e i rischi — di integrare l’intelligenza artificiale su scala istituzionale.

L’annuncio principale era doppiamente impressionante. Anthropic e Deloitte hanno dichiarato che il contratto rinnovato rappresenta la più grande collaborazione tecnologica aziendale che Anthropic abbia mai firmato. Claude, il modello AI del laboratorio, sarà integrato nei flussi di lavoro di circa 470.000 dipendenti Deloitte in tutto il mondo. Non si tratta solo di accesso al modello, ma di un’applicazione estesa: entro i mesi successivi Deloitte distribuirà “Claude Personas”, versioni personalizzate del modello adattate ai ruoli (consulenti, contabili, sviluppatori, ecc.), e costituirà un “Claude Center of Excellence” interno per guidare implementazione, formazione, governance. Il fine è chiaro: non un semplice fornitore di tecnologie, ma un partner che colloca l’IA al cuore dell’operatività aziendale.

Da un lato, questa mossa riflette l’onda crescente con cui le grandi imprese tentano di internalizzare l’intelligenza artificiale, non più come tecnologia “di supporto”, ma come leva strategica. Dopo aver raccolto fondi miliardari e aver ampliato il proprio organico internazionale, Anthropic è pronta a portare Claude nell’arena enterprise con un grado di penetrazione mai esplorato. L’obiettivo dichiarato è rendere l’IA una componente ordinaria, integrata, affidabile nei processi sensibili come finanza, sanità e servizi pubblici.

Dall’altro lato, nel momento in cui Deloitte annunciava questo slancio, si dipanava una vicenda meno edificante. In Australia, Deloitte aveva consegnato al governo un’analisi indipendente (commissionata dal Dipartimento per l’Occupazione e le Relazioni sul Lavoro) del valore di circa 439.000 dollari australiani, riguardante un sistema di compliance e automazione del welfare. Quel report presentò numerose imprecisioni: citazioni accademiche inesistenti, riferimenti giuridici inventati, estratti attribuiti a giudici che non avevano pronunciato quelle parole.

Il responsabile accademico Christopher Rudge denunciò tali “allucinazioni” del modello, facendo emergere che alcune parti del documento erano evidentemente il frutto di generazioni AI non verificate. Deloitte ammise che alcune note e riferimenti erano errati, rivide il testo, e accettò di rimborsare una parte del compenso finale, pur sostenendo che ciò non alterava le conclusioni o le raccomandazioni sostanziali del rapporto.

La contemporaneità fra queste due notizie — il grande passo verso l’adozione estesa di Claude e lo scivolone legato a errori IA in un report governativo — è illuminante. Mostra che, mentre le organizzazioni vogliono credere nell’IA come strumento di trasformazione, l’applicazione nella realtà concreta richiede attenzione estrema. Non basta “usare l’IA”: occorre governarla, validarla, costruire controlli, audit, processi di verifica.

Di Fantasy