OpenAI ha allocato un quinto della sua potenza di calcolo a un nuovo gruppo che si dedicherà al controllo dell’IA avanzata e alla sua sicurezza per le persone. Il capo scienziato e co-fondatore Ilya Sutskever guiderà il team di Superalignment, che sarà responsabile della progettazione dei “guardrail” per assicurare che i sistemi di intelligenza artificiale “superintelligenti” rimangano allineati con le esigenze e le funzioni umane.
La decisione di formare il team Superalignment è stata presa da OpenAI sulla base della stima che l’IA potrebbe superare i limiti dell’intelligenza umana entro i prossimi dieci anni. Sutskever, insieme al capo dell’allineamento Jan Leike, svilupperà strategie per garantire che l’IA futura rimanga sotto controllo umano e non perseguire obiettivi discutibili. L’obiettivo del team è quello di sviluppare una soluzione tecnica per l’utilizzo sicuro di un’IA superintelligente entro quattro anni.
“Attualmente non abbiamo una soluzione per guidare o controllare un’IA potenzialmente superintelligente e prevenire comportamenti indesiderati”, ha scritto OpenAI in un post sul blog. “Le nostre attuali tecniche di allineamento dell’IA, come l’apprendimento per rinforzo basato sul feedback umano, si basano sulla capacità degli esseri umani di supervisionare l’IA. Tuttavia, gli esseri umani non saranno in grado di supervisionare in modo affidabile i sistemi di intelligenza artificiale molto più intelligenti di noi, pertanto le nostre attuali tecniche di allineamento non saranno adatte per la superintelligenza. Abbiamo bisogno di nuove scoperte scientifiche e tecniche”.
In particolare, OpenAI mira a sviluppare e addestrare sistemi di intelligenza artificiale in base alle risposte umane, in modo che possano valutare indipendentemente altri modelli di intelligenza artificiale in base al loro allineamento con le preferenze umane. Un’IA mediatrice singola sarebbe più facilmente gestibile per gli esseri umani e potrebbe assumersi il compito di valutare i numerosi modelli di intelligenza artificiale che potrebbero superare la comprensione umana.
“Abbiamo intenzione di condividere ampiamente i risultati di questo sforzo e consideriamo il contributo all’allineamento e alla sicurezza dei modelli non OpenAI come una parte importante del nostro lavoro”, ha dichiarato OpenAI. “Mentre il nuovo team si concentrerà sulle sfide dell’allineamento dell’apprendimento automatico nei confronti dei sistemi di intelligenza artificiale superintelligenti, stiamo anche affrontando attivamente problemi socio-tecnici correlati in collaborazione con esperti interdisciplinari per garantire che le nostre soluzioni tecniche considerino le preoccupazioni umane e sociali più ampie. L’allineamento della superintelligenza rappresenta uno dei problemi tecnici irrisolti più importanti del nostro tempo e richiede le menti più brillanti del mondo per essere risolto”.