Immagine AI

Il rapido sviluppo dell’Intelligenza Artificiale Generale (AGI) ha sollevato non solo aspettative di progresso senza precedenti, ma anche profonde preoccupazioni riguardo alla sicurezza e al potenziale rischio esistenziale per l’umanità. In questo contesto di frenetica competizione, il Future Life Institute (FLI), un influente istituto di ricerca senza scopo di lucro, ha recentemente pubblicato la sua valutazione “2025 AI Safety Index”, il cui verdetto è inequivocabile: le principali aziende di IA stanno fallendo nel tentativo di stabilire misure di sicurezza adeguate, non riuscendo a rispettare gli standard globali che la loro stessa tecnologia rende necessari. I risultati del rapporto disegnano un quadro in cui la ricerca del primato tecnologico supera di gran lunga la prudenza.

La parte più allarmante della valutazione riguarda la categoria della “Sicurezza esistenziale”, che mira a misurare le strategie difensive contro il rischio che l’AGI possa minacciare l’esistenza dell’umanità. In questa sezione cruciale, nessuna azienda di IA ha ricevuto un voto pari o superiore a D, il che implica che il livello di preparazione è universalmente giudicato gravemente insufficiente. Questa carenza è sintomatica di una priorità distorta, come ha criticato il FLI: “Sebbene le aziende di intelligenza artificiale si stiano concentrando sulla competizione per sviluppare AGI e superintelligenze che superino le capacità umane, esistono poche strategie di difesa pratiche per prevenire fallimenti o abusi del controllo”. L’istituto ha anche evidenziato che, nonostante molte aziende riconoscano i rischi a parole, mancano di obiettivi quantitativi specifici, di strategie concrete per prevenire errori di allineamento e di robusti sistemi di monitoraggio interno.

La valutazione del FLI è stata condotta esaminando quadri di sicurezza, politiche e casi noti divulgati da sette importanti istituti di ricerca di IA, classificandoli in sei categorie chiave che vanno dalla valutazione del rischio e dal danno attuale fino alla governance e responsabilità, con una scala di voto da A a F, dove C rappresenta la media.

Anche le aziende che hanno ottenuto i risultati migliori nella valutazione complessiva hanno mostrato criticità fondamentali. Anthropic ha ottenuto il punteggio complessivo più alto, classificandosi con un C+, grazie ad aspetti positivi come l’elevato livello di protezione della privacy, l’eccellente ricerca sull’allineamento e la gestione responsabile attraverso la sua struttura di società di pubblica utilità (PBC). Tuttavia, anche il suo punteggio di sicurezza esistenziale di base si è fermato a un misero D, indicando che persino il leader del settore è insufficiente nella protezione dai rischi più gravi posti dall’IA ad alte prestazioni.

OpenAI e Google DeepMind si sono classificate rispettivamente al secondo e terzo posto, entrambe ricevendo un voto complessivo di C. OpenAI ha ricevuto elogi per l’impegno nel segnalare casi di uso improprio dei modelli e per la condivisione dei risultati delle valutazioni esterne. In particolare, è stata l’unica azienda a divulgare integralmente la propria politica di whistleblowing, un segnale di trasparenza nel processo di segnalazione delle irregolarità, un settore giudicato debole in modo trasversale. Nonostante questi punti di forza, i loro sistemi di valutazione delle capacità ad alto rischio, come il contrasto al bioterrorismo e al cyberterrorismo su larga scala, sono stati criticati per essere inadeguati, non soddisfacendo gli standard di base per l’analisi del rischio.

Il rapporto ha anche evidenziato una preoccupante disparità nel panorama della sicurezza globale. Aziende come xAI e Meta hanno ricevuto una valutazione complessiva di D (“inadeguato”), a causa di investimenti insufficienti nella ricerca sulla sicurezza e per la mancanza di prove di monitoraggio attivo. La situazione peggiora notevolmente con le aziende cinesi come DeepSeak e JifuAI, che non hanno soddisfatto la maggior parte dei criteri per non aver divulgato i propri framework di sicurezza. Anche se alcune di queste aziende sostengono che l’approccio open-source stesso sia una misura di sicurezza, il FLI ha lanciato un monito chiaro: “Non importa quanto le aziende statunitensi rafforzino i loro standard di sicurezza, i rischi globali non saranno risolti finché le aziende dei Paesi con normative più deboli non rispetteranno standard simili”. I rischi, in un mondo interconnesso, sono globali e richiedono standard uniformi.

Il Presidente del FLI e professore al MIT, Max Tegmark, ha espresso una critica incisiva e severa, sottolineando che “le aziende di intelligenza artificiale sono più concentrate sulla concorrenza tecnologica e sulle attività di lobbying che sulla sicurezza” e ha amaramente notato che “la regolamentazione delle aziende di intelligenza artificiale è più debole di quella dei normali ristoranti negli Stati Uniti”. Questo rapporto, che fa eco alle precedenti iniziative del FLI, inclusa la famosa lettera aperta del 2023 che chiedeva una moratoria sullo sviluppo di IA avanzata, evidenzia l’urgente necessità di un cambiamento di rotta: è imperativo che l’attenzione si sposti dalla cieca corsa allo sviluppo alla creazione di standard di sicurezza robusti, quantificabili e internazionalmente rispettati, prima che le conseguenze del fallimento diventino irreparabili.

Di Fantasy