Nell’Intelligenza Artificiale, poche figure hanno avuto un impatto così profondo e al contempo enigmatico come Ilya Sutskever. Co-fondatore ed ex capo scienziato di OpenAI, il visionario ricercatore ha recentemente compiuto un passo che equivale a una vera e propria dichiarazione di guerra ideologica: ha abbandonato il gigante da lui contribuito a plasmare per fondare una nuova entità, Safe Superintelligence Inc. (SSI). Questo non è un semplice cambio di azienda, ma una radicale metamorfosi nella sua convinzione su come debba essere raggiunta e gestita la Superintelligenza Artificiale (ASI). La sua mossa segna l’abbandono della strategia dominante e un massiccio investimento sul primato della ricerca pura.
Il cambiamento di mentalità di Sutskever ruota attorno alla convinzione che l’“era dello scaling” sia giunta al termine. Fino a poco tempo fa, il dogma nel settore dell’AI, in gran parte convalidato da Sutskever stesso e dai successi di OpenAI, si basava sulla scaling thesis: maggiore è la potenza di calcolo (compute), maggiore la quantità di dati forniti e più grande il numero di parametri del modello, maggiore sarà la sua capacità predittiva e la sua “intelligenza”. Questo approccio ha generato i Large Language Models (LLM) che conosciamo e che hanno rivoluzionato il mondo. Tuttavia, secondo Sutskever, questa formula magica sta raggiungendo i suoi limiti naturali.
Egli sostiene che, sebbene gli attuali modelli eccellano in compiti specifici, essi manifestano ancora una profonda inaffidabilità e una scarsa capacità di generalizzazione rispetto al cervello umano. I sistemi attuali sono macchine di previsione statistica estremamente sofisticate, ma non possiedono ancora la vera capacità di ragionamento che richiede una comprensione profonda e trasversale. L’idea è che, continuando a “pompare” risorse in architetture esistenti, si arriverà a un punto di plateau che non porterà alla vera Superintelligenza, ma solo a una versione più grande e costosa di ciò che già esiste. La vera svolta, l’avvento di sistemi con capacità di apprendimento di tipo umano o superiore, non avverrà quindi per mezzo di un aumento di scala della forza bruta, ma attraverso scoperte fondamentali nella ricerca e nello sviluppo di nuovi e più efficienti metodi di apprendimento.
Questa profonda critica tecnica si traduce direttamente nella missione radicale di Safe Superintelligence Inc.. La startup è stata fondata con un obiettivo monolitico: costruire la superintelligenza sicura, e non fare nient’altro fino a quel momento. Questa è l’antitesi del modello di business commerciale che ormai domina il settore, compresa l’attuale traiettoria di OpenAI. SSI opera nel massimo riserbo, senza lanciare prodotti intermedi, senza offrire API o cercare ricavi nel breve termine. È una scommessa a lungo termine, finanziata da capitali miliardari, dove la pura ricerca è l’unica metrica di successo. L’isolamento dalle pressioni commerciali e dai cicli di prodotto è visto come l’unica via per dedicare risorse intellettuali e finanziarie esclusivamente alla risoluzione di problemi fondamentali.
Il concetto di sicurezza (alignment) non è un accessorio per SSI, ma un elemento costitutivo. Sutskever ha implicitamente messo in discussione l’approccio di trattare la sicurezza come una disciplina separata, o come un team isolato, criticando la tendenza a cercare di allineare a posteriori un modello già super-potente. In SSI, la sicurezza deve essere integrata nell’architettura del sistema fin dal primo giorno di sviluppo. Significa che, mentre si costruisce la capacità, si costruiscono simultaneamente i meccanismi di allineamento che assicurino che la Superintelligenza nascente comprenda, interiorizzi e rispetti i valori umani, in modo robusto e scalabile.
La mossa di Ilya Sutskever è, in sintesi, la più grande scommessa dell’AI sul ritorno all’estetica e all’eleganza della ricerca fondamentale. È una dichiarazione secondo cui il percorso per creare un’intelligenza che superi l’umano richiede un profondo riesame dei meccanismi di apprendimento, piuttosto che un semplice dispendio di risorse. Con miliardi di dollari a supporto e una missione tanto chiara quanto monacale, Sutskever ha ridefinito il punto focale della corsa all’ASI: non è più una gara di chi scala più velocemente, ma di chi riesce a trovare la prossima, fondamentale, scoperta scientifica.
