Yoshua Bengio e Geoffrey Hinton, leader riconosciuti nel mondo dell’IA, insieme a 22 esperti, hanno presentato un piano di politica e governance per affrontare i potenziali pericoli legati all’intelligenza artificiale.
Il piano suggerisce che le entità pubbliche e private dovrebbero allocare un terzo del loro budget per la ricerca sull’IA alla sua sicurezza. Questa mossa arriva poco prima del summit sulla sicurezza dell’IA a Bletchley Park, nel Regno Unito, un evento che vedrà leader globali, esperti e politici discutere le implicazioni dell’IA.
Il documento evidenzia vari punti chiave:
- Le grandi imprese di IA e i decisori politici dovrebbero riservare almeno un terzo del budget per la ricerca sull’IA alla sicurezza e all’etica.
- È fondamentale per i governi avere una visione chiara dell’evoluzione dell’IA, incluse normative che riguardano la registrazione dei modelli e il monitoraggio.
- Le autorità dovrebbero poter analizzare i nuovi sistemi di IA prima del loro rilascio, specialmente quelli con potenziali pericolosi.
- Chi sviluppa e possiede IA avanzata dovrebbe essere legalmente responsabile per danni prevedibili e prevenibili causati dai loro modelli.
- Le licenze per specifici sviluppi dell’IA dovrebbero essere rilasciate solo quando esistono adeguate misure di sicurezza.
Anche se sia Bengio che Hinton sono stati vocali riguardo la sicurezza dell’IA, figure come Yann Lecun sono meno inclini a vedere l’urgenza. La percezione della sicurezza dell’IA sta cambiando con l’evolversi delle capacità tecnologiche. Tra gli altri sottoscrittori del documento ci sono Yuval Noah Harari, Daniel Kahneman e Jeff Clune. Recentemente, Mustafa Suleyman ha proposto un organo simile all’IPCC per l’IA.
Il documento mette in luce le preoccupazioni relative all’IA autonoma, sistemi capaci di agire indipendentemente. Cita il modello GPT-4 di OpenAI come esempio di progresso in questa direzione. L’articolo sottolinea i rischi di sistemi IA che diventano incontrollabili.
Il documento afferma: “Creare un’IA avanzata e autonoma potrebbe portare a sistemi che perseguono scopi nocivi, sia intenzionalmente che per errore.”
Infine, si richiedono progressi nella ricerca per garantire:
- Supervisione e integrità: evitare che l’IA manipoli i test o produca risultati ingannevoli.
- Robustezza: assicurarsi che l’IA reagisca bene in contesti inaspettati.
- Interpretabilità: comprendere come l’IA prende le decisioni.
- Valutazione del rischio: monitorare costantemente l’IA per scoprire capacità pericolose.
- Rispondere alle nuove sfide: prevenire modi in cui l’IA potrebbe aggirare misure di sicurezza o fuggire al controllo.