OpenAI ha recentemente dichiarato che affrontare la sicurezza dell’intelligenza artificiale (IA) attraverso l’implementazione pratica e la risoluzione dei problemi dopo il rilascio dei modelli è più efficace rispetto a un approccio puramente teorico. Secondo l’azienda, i test in laboratorio presentano delle limitazioni, e quindi è preferibile rilasciare i modelli e affrontare le problematiche che emergono durante l’utilizzo reale.
OpenAI ha pubblicato sul proprio sito web un articolo intitolato “Il nostro approccio alla sicurezza e all’allineamento”, in cui ha delineato il proprio metodo per la distribuzione dei sistemi di IA. L’azienda ha enfatizzato l’importanza di apprendere attraverso implementazioni iterative piuttosto che basarsi esclusivamente su principi teorici. Questo implica testare i sistemi nel mondo reale e sfruttare le intuizioni collettive di tutti gli attori coinvolti.
In altre parole, OpenAI sostiene che, nonostante i test in laboratorio siano utili, essi non possono prevedere tutte le possibili situazioni che si presenteranno nell’uso reale. Pertanto, rilasciare i modelli e affrontare rapidamente i problemi che emergono durante l’utilizzo pratico è fondamentale per garantire la sicurezza e l’efficacia dell’IA.
Tuttavia, questa posizione ha suscitato critiche da parte di alcuni esperti nel campo della sicurezza dell’IA. Miles Brundage, ex ricercatore politico di OpenAI e noto esperto di sicurezza dell’IA, ha espresso preoccupazione riguardo a questo approccio. Attraverso la piattaforma X (precedentemente Twitter), Brundage ha affermato che considerare gli avvertimenti sulla sicurezza dell’IA come allarmismi e richiedere prove concrete dei rischi prima di agire è un modo di pensare molto pericoloso quando si tratta di sistemi avanzati di IA.
Ha inoltre aggiunto che, se fosse ancora in OpenAI, avrebbe messo in discussione la redazione di tale articolo e avrebbe chiesto quale fosse l’obiettivo nel minimizzare la cautela in questo modo.
È importante notare che, in passato, OpenAI aveva adottato misure più restrittive riguardo alla sicurezza dell’IA. Nel maggio 2024, l’azienda aveva annunciato che, dopo un periodo di 90 giorni di attività del “Comitato per la sicurezza e la protezione”, avrebbe rilasciato modelli solo con l’approvazione del consiglio di amministrazione. Inoltre, nell’agosto dello stesso anno, aveva dichiarato l’intenzione di sottoporre i modelli avanzati a una valutazione preventiva da parte dell’Istituto di ricerca sulla sicurezza dell’IA, un ente governativo degli Stati Uniti.
Tuttavia, negli ultimi mesi, diversi responsabili della sicurezza dell’IA, tra cui il capo scienziato Ilya Sutskever, hanno lasciato l’azienda. Inoltre, l’Istituto di ricerca sulla sicurezza dell’IA, istituito durante l’amministrazione Biden, sta affrontando riduzioni o rischia la chiusura, segnando un cambiamento significativo rispetto all’anno precedente.