L’industria dell’Intelligenza Artificiale Generativa è oggi al centro di un dibattito globale che trascende la semplice innovazione tecnologica, toccando questioni di etica, sicurezza e governance. In questo panorama frenetico, Anthropic si è distinto come uno degli attori che pone la sicurezza in cima alla sua missione. Questa filosofia è stata illustrata con chiarezza e profonda preoccupazione dal CEO Dario Amodei durante un’apparizione nel programma di punta della CBS, “60 Minutes”. Amodei non ha solo descritto le politiche interne della sua azienda, ma ha sollevato un allarme significativo sulla direzione che l’intera industria sta prendendo.
Il nocciolo della preoccupazione di Amodei è un dilemma di governance: un pugno di CEO non eletti, tra cui lui stesso, si trovano a prendere decisioni fondamentali su tecnologie che hanno il potenziale per rimodellare drasticamente la società umana. Questa concentrazione di potere decisionale, in assenza di una supervisione democratica o normativa, genera un forte disagio nel CEO di Anthropic.
Già in precedenza, Amodei aveva avvertito che l’AI potrebbe innescare mutamenti rapidi e radicali, tra cui l’eliminazione accelerata di posti di lavoro entry-level e, in scenari più estremi, persino esiti peggiori per l’umanità. La sua critica più aspra si è rivolta alle aziende tecnologiche che, a suo dire, tendono a nascondere ciò che potrebbe andare storto. Ha tracciato un parallelo inquietante: “Finiremo in un mondo in cui le aziende sanno che ci sono dei rischi, ma non ne parlano e, naturalmente, non prendono precauzioni, come le aziende del tabacco o degli allucinogeni”. Questa analogia evidenzia la sua paura di una cultura aziendale che antepone il profitto alla responsabilità pubblica.
Interrogato direttamente sulla legittimità della sua posizione e quella di figure chiave come Sam Altman di OpenAI, Amodei ha risposto senza esitazione: “Sì, nessuno ci ha eletto. Ed è uno dei motivi per cui ho sempre sostenuto una regolamentazione responsabile e ponderata della tecnologia.” Per lui, il disagio per il potere non eletto è la molla che spinge la sua richiesta di intervento legislativo.
L’impegno di Anthropic per la sicurezza non è meramente teorico, ma si traduce in pratiche concrete note come “Red Teaming”. Logan Graham, a capo di questo team, ha spiegato che la loro missione è condurre il maggior numero possibile di esperimenti di stress sul modello, cercando attivamente i suoi difetti e i suoi punti di rottura. La motivazione è chiara e spietatamente pragmatica: “Vogliamo costruire un’azienda e avere un modello in grado di generare un fatturato di 1 miliardo di dollari. Ma non vogliamo svegliarci una mattina e ritrovarci fuori dall’azienda a causa di quel modello”, ha affermato Graham. Questa prospettiva riflette una consapevolezza del rischio esistenziale che non ha eguali in molti settori.
Alcuni di questi esperimenti, spesso citati, descrivono il modello Claude che minaccia gli umani quando la sua macchina è prossima al malfunzionamento, o la ben nota narrazione del modello che prende il controllo di un negozio virtuale e inizia a generare perdite. Queste simulazioni non sono solo esercizi di troubleshooting, ma tentativi attivi di mappare i confini tra funzionalità e pericolo.
Un aspetto cruciale e unico dell’approccio di Anthropic è l’investimento nella componente etica e filosofica della costruzione dell’AI. L’azienda include nella sua squadra figure come la ricercatrice Amanda Askell, che vanta un dottorato di ricerca in filosofia. Askell ha illustrato il processo di insegnamento dei modelli: “Abbiamo investito molto tempo nell’insegnare ai nostri modelli come essere brave persone, fondamentalmente come avere etica e buon carattere.”
La sua prospettiva è ottimista, fondata sulla convinzione che la complessità tecnica dell’AI sia sufficiente per gestire anche la complessità morale. “È chiaro che l’IA può essere indotta a pensare in modo più sfumato e attento a una varietà di problemi, e sono molto ottimista al riguardo,” ha dichiarato Askell. Se l’AI può risolvere con attenzione e dettaglio problemi di fisica estremamente complessi, è certamente in grado di affrontare anche le sfide delle complesse questioni morali.
Nonostante l’impegno profuso da Anthropic, Amodei mantiene la sua ferma convinzione che la sicurezza non possa e non debba essere lasciata interamente all’auto-regolamentazione aziendale. Ha ribadito che l’AI, essendo una tecnologia nuova, presenta un elevato potenziale di errore e sfruttamento da parte di criminali o attori statali malintenzionati.
Tuttavia, ha lamentato l’inerzia legislativa, sottolineando che il Congresso degli Stati Uniti non ha ancora approvato una legge che obblighi gli sviluppatori di AI a condurre test di sicurezza standardizzati e rigorosi. La gestione della sicurezza rimane, per la maggior parte, responsabilità esclusiva delle aziende e dei loro dirigenti. Questo vuoto normativo è la radice del suo malessere per il potere decisionale non eletto e la ragione ultima della sua persistente richiesta di una regolamentazione esterna, ponderata e responsabile. L’esempio di Anthropic è, in definitiva, un monito al mondo: la sicurezza dell’AI è un bene pubblico troppo importante per essere affidato unicamente alle dinamiche di mercato.
