OpenAI sta introducendo un piano articolato per impedire che i propri modelli di intelligenza artificiale vengano sfruttati per scopi dannosi nel campo della biologia, come la progettazione di armi biologiche. Con il continuo miglioramento delle capacità di elaborazione biologica dei suoi sistemi, l’azienda riconosce l’importanza di mettere in atto misure preventive robuste per contrastare eventuali usi malevoli.
Nel suo post “Prepararsi alle future capacità dell’intelligenza artificiale in biologia”, pubblicato il 18 giugno, OpenAI spiega che i modelli attuali mostrano già notevoli abilità in ambito biologico e che le versioni future potranno ottenere risultati ancora più avanzati. Johannes Heideke, ricercatore di sicurezza di OpenAI, sottolinea come il progresso dell’IA possa accelerare scoperte preziose, ma al contempo rappresentare un rischio qualora cadesse nelle mani sbagliate.
Per far fronte a queste sfide, OpenAI ha rafforzato il proprio approccio alla sicurezza su più fronti: ogni modello viene addestrato a riconoscere e rifiutare richieste per la creazione di agenti patogeni; un sistema di monitoraggio costante analizza gli output prodotti; l’azienda traccia gli eventuali abusi da parte degli utenti, sospendendo account o, nei casi più gravi, coinvolgendo le autorità competenti; infine, un team multidisciplinare, formato sia da biologi sia da specialisti di “red teaming”, verifica costantemente le difese esistenti.
Queste policy sono già in vigore per modelli avanzati come “o3”, pur non avendo ancora raggiunto la soglia di rischio che OpenAI definisce “elevata”. Per creare un fronte ancora più ampio di tutela, l’azienda organizzerà a luglio un vertice mondiale sulla biodifesa, invitando governi, agenzie di ricerca e organizzazioni non governative a lavorare insieme. L’obiettivo è stabilire un coordinamento pubblico-privato capace di rispondere prontamente a nuove minacce biologiche e di rafforzare le infrastrutture di difesa.
Il comunicato di OpenAI sembra avere anche un intento di rassicurare opinione pubblica e stakeholder, in un momento in cui cresce la pressione sul gruppo, in vista della sua trasformazione in un ente di interesse pubblico. Solo il giorno precedente alla pubblicazione del post, due ONG avevano sollevato critiche riguardo ai processi di governance di OpenAI, sostenendo che talvolta i modelli vengono resi disponibili senza adeguati test di sicurezza a causa di spinte commerciali. OpenAI ha ribadito che non ognuno dei suoi modelli raggiunge la soglia di rilascio finché non si è certi di aver mitigato i rischi in modo soddisfacente, confermando la propria volontà di collaborare con governi, ricercatori e imprenditori di tutto il mondo.