OpenAI ha lanciato un nuovo gruppo specializzato nella valutazione e nell’analisi dei potenziali pericoli legati all’intelligenza artificiale (IA) per prevenire “rischi di portata catastrofica”.

Sotto la guida di Aleksander Madry, precedentemente direttore del Center for Deployable Machine Learning del MIT e ora “responsabile della preparazione” presso OpenAI, il team “Preparedness” avrà il compito di anticipare, monitorare e proteggersi dai rischi inerenti ai futuri sistemi IA. Questi rischi spaziano dalla potenziale manipolazione e inganno umano, come negli attacchi di phishing, alla generazione di codici malevoli.

Nelle sfide esaminate da “Preparedness”, alcune paiono estrapolate da un romanzo di fantascienza, come le minacce “chimiche, biologiche, radiologiche e nucleari” citate in un post di OpenAI.

Sam Altman, CEO di OpenAI, non è nuovo alle previsioni sull’IA, suggerendo che possa portare a scenari catastrofici per l’umanità. Tuttavia, che OpenAI stia effettivamente indirizzando risorse verso l’analisi di tali scenari è una sorpresa.

OpenAI non esita ad esplorare rischi meno evidenti, ma più concreti, dell’IA. Contestualmente alla presentazione di “Preparedness”, l’ente invita la comunità a proporre idee su studi di rischio, offrendo un premio di $25.000 e un’opportunità lavorativa nel team per le proposte più valide.

In una delle domande del concorso, si invita a riflettere sul potenziale abuso di alcuni dei modelli avanzati di OpenAI da parte di soggetti malevoli.

Il gruppo “Preparedness” avrà anche il compito di definire una “politica di sviluppo basata sul rischio”, dettagliando l’approccio di OpenAI alla valutazione, al monitoraggio e alla gestione dei rischi associati all’IA.

OpenAI ha sottolineato l’importanza di garantire una comprensione profonda e un’infrastruttura adeguata per gestire i futuri sistemi IA avanzati, citando nel suo post: “I futuri modelli IA potrebbero portare benefici immensi, ma presentano anche rischi crescenti. La nostra priorità è garantirne la sicurezza”.

Il lancio di “Preparedness”, coincidente con un importante summit del governo britannico sull’IA, segue l’annuncio di OpenAI della formazione di un team dedicato all’IA “superintelligente”. Secondo Altman e Ilya Sutskever, cofondatore di OpenAI, un’IA superintelligente potrebbe emergere nel prossimo decennio e potrebbe non essere intrinsecamente benevola, sottolineando l’urgenza di definire contromisure e limiti.

Di Fantasy