Immagine AI

Il recente conflitto tra Anthropic e OpenAI, culminato nelle dure critiche di Dario Amodei, non è solo una disputa commerciale per un contratto di fornitura, ma rappresenta una divergenza fondamentale sulla filosofia della “Intelligenza Artificiale Fisica” e del controllo dei modelli. Al centro della controversia si trova il concetto di “linee rosse”, ovvero quei limiti invalicabili oltre i quali un modello di linguaggio non dovrebbe operare, specialmente in contesti sensibili come quello della difesa. Amodei accusa OpenAI di aver trasformato questi protocolli in una sorta di apparato estetico, definendoli un teatrino della sicurezza che serve più a rassicurare l’opinione pubblica che a impedire effettivamente usi impropri o pericolosi della tecnologia.

Dal punto di vista tecnico, la critica si concentra sul sistema di classificazione esterno adottato dal Dipartimento della Difesa degli Stati Uniti in collaborazione con Palantir. Questo apparato dovrebbe fungere da filtro per monitorare l’uso dei modelli, ma secondo la visione di Anthropic, tali misure sarebbero efficaci solo per una minima parte operativa, lasciando scoperto l’ottanta per cento dei potenziali rischi legati all’allineamento dei modelli e alla loro manipolabilità. La tensione è stata esacerbata dalla decisione del Pentagono di etichettare Anthropic come un rischio per la catena di approvvigionamento, una mossa che riflette il clima di polarizzazione politica e che sembra punire l’approccio restrittivo e regolatorio promosso da Amodei rispetto a quello più pragmatico e collaborativo di Sam Altman.

La dimensione politica gioca un ruolo altrettanto cruciale nella definizione di questi nuovi assetti industriali. Mentre OpenAI ha intrapreso una strategia di avvicinamento all’amministrazione Trump attraverso donazioni significative e il sostegno a candidati contrari alla regolamentazione dell’IA, Anthropic ha mantenuto una posizione di netto supporto alle norme di sicurezza, esponendosi sul tema della sostituzione dei posti di lavoro e sui rischi esistenziali. Questo posizionamento ha portato a una frizione diretta con il potere esecutivo, culminata nell’ordine di rimozione dell’azienda dalle consultazioni amministrative. Il contrasto tra i due leader, palesatosi anche fisicamente durante gli incontri pubblici, riflette l’esistenza di due blocchi contrapposti: uno che vede l’IA come uno strumento di potenza nazionale da dispiegare rapidamente e uno che la considera una tecnologia intrinsecamente rischiosa che richiede una supervisione costante e indipendente.

Nonostante la durezza della nota interna, le successive dichiarazioni pubbliche di Amodei mostrano un tentativo di mediazione diplomatica, volto a mitigare il danno d’immagine e a cercare una via di risoluzione del conflitto con le istituzioni. La sfida per Anthropic rimane quella di dimostrare che la sicurezza non è un ostacolo all’efficienza militare, ma un requisito fondamentale per l’affidabilità dei sistemi in scenari critici. In questo scenario, la competizione per la supremazia nell’intelligenza artificiale non si gioca più solo sulla potenza di calcolo o sui parametri dei modelli, ma sulla capacità di navigare i complessi equilibri tra innovazione tecnologica, protezione dei dati sensibili e fedeltà politica.

Di Fantasy