Ilya Sutskever, dopo aver lasciato la carica di capo scienziato di OpenAI a maggio, ha svelato il suo nuovo progetto. Insieme a Daniel Levy di OpenAI e Daniel Gross, ex responsabile dell’intelligenza artificiale di Apple, ha fondato Safe Superintelligence Inc. (SSI), una startup dedicata alla creazione di una superintelligenza sicura.
Nel messaggio pubblicato sul sito web di SSI, i fondatori hanno sottolineato che costruire una superintelligenza sicura rappresenta il problema tecnico più critico del nostro tempo. L’obiettivo è far progredire le capacità di intelligenza artificiale in modo rapido e sicuro, garantendo contemporaneamente un rigoroso controllo della sicurezza.
La superintelligenza è definita come un agente ipotetico con un’intelligenza molto superiore a quella dell’essere umano più intelligente, un concetto su cui Sutskever ha continuato a lavorare anche durante il suo tempo a OpenAI. Era parte del team di superallineamento, che si occupava di sviluppare modi per controllare sistemi avanzati di intelligenza artificiale. La decisione di sciogliere questo gruppo dopo la sua partenza è stata oggetto di critiche, incluso da parte di Jean Leike, un ex collega di rilievo.
Sutskever è stato anche coinvolto nella rimozione dell’ex CEO di OpenAI, Sam Altman, nel novembre 2023, una situazione di cui si è successivamente pentito. Ora, con SSI, l’obiettivo è perseguire la superintelligenza sicura con determinazione e concentrazione, puntando a risultati tangibili nel campo dell’intelligenza artificiale avanzata.