OpenAI, l’organizzazione che ha sviluppato il modello linguistico GPT-4, ha recentemente pubblicato uno studio sul possibile uso dell’intelligenza artificiale (IA) nella creazione di minacce biologiche. Lo studio ha coinvolto esperti di biologia e studenti per capire se GPT-4 potesse aumentare la precisione nella creazione di queste minacce, ma ha trovato solo un lieve miglioramento rispetto a quanto già disponibile su Internet.
Questo studio fa parte degli sforzi di OpenAI per valutare e ridurre i rischi associati alle tecnologie AI avanzate, in particolare quelli legati a minacce non convenzionali e poco conosciute, come l’uso dell’IA per sviluppare attacchi biologici.
Per testare questi rischi, 100 partecipanti (50 esperti di biologia e 50 studenti) hanno svolto attività legate alla creazione di minacce biologiche, sia con l’aiuto di GPT-4 che solo con Internet. Le prestazioni sono state valutate in termini di accuratezza, completezza, innovazione, tempo impiegato e difficoltà percepita. I risultati hanno mostrato che GPT-4 non ha migliorato notevolmente le prestazioni, tranne che per un leggero aumento di precisione tra gli studenti.
Lo studio conclude che, attualmente, modelli come GPT-4 non rappresentano un grande rischio in questo campo, ma avverte che i modelli futuri potrebbero essere più avanzati e pericolosi. Sottolinea l’importanza di continuare la ricerca e il dibattito comunitario su questi rischi, oltre allo sviluppo di metodi di valutazione e linee guida etiche migliori.
I risultati di questo studio sono in linea con un precedente esperimento della RAND Corporation, che non ha trovato differenze significative nella fattibilità di piani di attacco biologico con o senza l’assistenza dell’IA. Tuttavia, entrambi gli studi ammettono i limiti delle loro metodologie e il rapido sviluppo dell’IA, che potrebbe cambiare i rischi in futuro.
Anche altre organizzazioni, come la Casa Bianca, le Nazioni Unite e vari esperti, sono preoccupate per l’uso improprio dell’IA in attacchi biologici e chiedono ulteriori ricerche e normative. Con l’IA che diventa sempre più potente e accessibile, la necessità di vigilanza e preparazione è urgente.