Il vincitore del Premio Turing, Yoshua Bengio, insieme a un gruppo di ricercatori nel campo dell’intelligenza artificiale, ha presentato una proposta innovativa denominata ‘Scientist AI’. Questo sistema di intelligenza artificiale è progettato per accelerare il progresso scientifico e la ricerca, fungendo al contempo da salvaguardia contro potenziali rischi associati a agenti IA autonomi e superintelligenti.​

A differenza degli agenti IA tradizionali, progettati per perseguire obiettivi specifici in modo autonomo, ‘Scientist AI’ è concepito come un sistema il cui scopo principale è spiegare il mondo attraverso l’osservazione, senza intervenire direttamente nelle azioni umane. Questo approccio mira a evitare che l’IA sviluppi comportamenti indesiderati o pericolosi derivanti dall’imitazione o dalla compiacenza verso gli esseri umani.​

Gli autori della proposta sottolineano che dotare i sistemi IA di una cognizione simile a quella umana potrebbe portare alla riproduzione e all’amplificazione di tendenze dannose proprie dell’umanità, con potenziali conseguenze catastrofiche. Combinare la potenza degli agenti IA autonomi con capacità superumane potrebbe, infatti, dare origine a sistemi IA pericolosi e fuori controllo.​

‘Scientist AI’ si distingue per il suo focus sull’elaborazione di spiegazioni per eventi osservati, accompagnate da una stima della loro probabilità. Questo differisce dagli agenti IA tradizionali, addestrati per perseguire obiettivi specifici, spesso attraverso tecniche di apprendimento per rinforzo. Quest’ultimo approccio può facilmente portare a una definizione errata degli obiettivi e a una generalizzazione inappropriata dei comportamenti appresi.​

Il sistema proposto non è addestrato per massimizzare ricompense, ma per interpretare il mondo basandosi su osservazioni, evitando azioni volte a imitare o compiacere gli esseri umani. Utilizzando la conoscenza acquisita, ‘Scientist AI’ fornisce spiegazioni affidabili per i suoi output, permettendo a esseri umani o ad altri sistemi IA di approfondire le ragioni alla base di ogni argomentazione, in modo analogo a un processo di revisione tra pari.​

Per prevenire previsioni che si autoavverano, gli autori suggeriscono che le predizioni vengano effettuate in un contesto simulato in cui ‘Scientist AI’ non esiste o non influenza il resto del mondo. Inoltre, si prevede che ‘Scientist AI’ diventi più sicuro e preciso con l’aumento delle risorse computazionali, a differenza dei sistemi tradizionali che, secondo gli autori, tendono a diventare più suscettibili a disallineamenti e comportamenti ingannevoli con l’incremento della potenza di calcolo.​

La proposta di ‘Scientist AI’ rappresenta un passo significativo verso lo sviluppo di sistemi IA più sicuri e allineati con gli interessi umani. Adottando un approccio basato sull’osservazione e sulla spiegazione, piuttosto che sull’azione autonoma, si mira a ridurre i rischi associati a agenti IA con obiettivi mal definiti o potenzialmente pericolosi.​

Gli autori auspicano che questa proposta possa motivare ricercatori, sviluppatori e responsabili politici a favorire percorsi di sviluppo dell’IA più sicuri, promuovendo al contempo il progresso scientifico attraverso strumenti avanzati di intelligenza artificiale.

Di Fantasy