Durante il recente AI Impact Summit tenutosi a Nuova Delhi, Sam Altman, CEO di OpenAI, ha formulato una delle previsioni più esplicite e ravvicinate mai espresse pubblicamente sull’evoluzione dell’intelligenza artificiale: secondo l’attuale traiettoria di sviluppo, le prime forme di vera superintelligenza potrebbero emergere entro la fine del 2028. Per la prima volta, Altman ha indicato un orizzonte temporale preciso, sostenendo che entro quella data una porzione maggiore dell’intelligenza mondiale potrebbe risiedere nei data center piuttosto che “al loro esterno”, cioè nella mente umana. Questa affermazione non si limita a una previsione tecnica, ma implica una trasformazione strutturale del motore principale della produzione di conoscenza e della risoluzione dei problemi, con il passaggio dall’intelligenza biologica a sistemi computazionali avanzati.
La dichiarazione rappresenta un’accelerazione significativa rispetto alle sue precedenti posizioni pubbliche. In occasione del lancio di ChatGPT nel 2023, Altman aveva descritto il percorso verso la superintelligenza come un processo potenzialmente lungo decenni, sottolineando che sicurezza, consenso sociale e governance sarebbero stati fattori più rilevanti di una tempistica precisa. Nel settembre 2024 aveva poi suggerito che la superintelligenza potesse arrivare “entro poche migliaia di giorni”, collocando implicitamente l’orizzonte nei primi anni 2030. Nel gennaio successivo aveva espresso fiducia nel raggiungimento dell’AGI nel senso tradizionale entro il 2025, distinguendo però chiaramente tra AGI – intesa come capacità paragonabile a quella di un essere umano medio – e superintelligenza, definita come un livello qualitativamente superiore rispetto alle migliori menti umane in molteplici domini.
L’attuale previsione al 2028 appare coerente con l’andamento osservato nelle performance dei modelli avanzati negli ultimi mesi. L’evoluzione dei sistemi di ragionamento matematico e simbolico, l’incremento della finestra di contesto, l’integrazione multimodale e la crescente capacità di affrontare problemi complessi a più passaggi hanno alimentato la percezione di un’accelerazione. È stato riportato, ad esempio, che modelli di nuova generazione hanno ottenuto risultati paragonabili a medaglie d’oro alle Olimpiadi Internazionali della Matematica e che alcuni sistemi abbiano persino affrontato parzialmente problemi aperti noti nella comunità matematica, come questioni legate a congetture di lunga data attribuite a Paul Erdős. Anche se tali affermazioni richiedono verifiche indipendenti e contestualizzazioni rigorose, esse contribuiscono a delineare un quadro di progresso rapido e cumulativo.
La previsione del 2028 si intreccia inoltre con le ambizioni infrastrutturali di OpenAI. Altman ha menzionato piani di investimento su scala senza precedenti, con cifre nell’ordine di oltre un trilione di dollari nell’arco di otto anni per infrastrutture computazionali avanzate, progetto noto come “Stargate”. Il completamento della fase iniziale entro la fine del 2028 coinciderebbe con la disponibilità di enormi capacità di calcolo distribuite in data center altamente specializzati. In questa prospettiva, la superintelligenza non è solo una questione algoritmica, ma il risultato dell’interazione tra modelli sempre più sofisticati, dati su scala globale e una potenza di calcolo esponenzialmente crescente. La tesi di Altman è coerente con l’idea che l’intelligenza artificiale sia funzione sia dell’architettura dei modelli sia della quantità di risorse computazionali impiegate.
Un passaggio particolarmente rilevante del suo intervento riguarda la potenziale capacità della superintelligenza di svolgere ruoli di altissimo livello decisionale, come quello di CEO di una grande impresa o di ricercatore di punta in ambito scientifico. In termini tecnici, ciò implica la possibilità che sistemi AI sviluppino competenze trasversali di pianificazione strategica, gestione delle risorse, valutazione del rischio, coordinamento di team e generazione autonoma di ipotesi scientifiche verificabili. Questa prospettiva solleva interrogativi sulla ridefinizione dei ruoli professionali e sulle modalità di integrazione uomo-macchina in contesti ad alta complessità.
Altman ha però affiancato alla previsione tecnologica un forte richiamo alla governance. Ha ribadito la strategia di “implementazione iterativa”, già proposta in passato da OpenAI, che prevede il rilascio graduale e controllato delle nuove capacità AI per consentire alla società di adattarsi progressivamente. Questo approccio mira a ridurre il rischio di shock sistemici derivanti dall’introduzione improvvisa di tecnologie estremamente potenti. Allo stesso tempo, ha sottolineato l’urgenza di una regolamentazione adeguata, paragonando la situazione a quella di altre tecnologie ad alto impatto come il nucleare. In tale contesto, ha evocato la necessità di un organismo internazionale analogo all’Agenzia Internazionale per l’Energia Atomica, capace di coordinare cooperazione, standard e risposte rapide a scenari di rischio emergente.
Un elemento particolarmente paradossale del suo discorso riguarda l’ipotesi che la stessa superintelligenza possa essere impiegata per progettare meccanismi di governance più equi e scalabili. Secondo questa visione, sistemi avanzati potrebbero aiutare a modellare scenari regolatori complessi, valutare impatti globali e suggerire strutture di cooperazione internazionale ottimizzate. Tuttavia, ciò presuppone un livello di fiducia, controllo e allineamento che rimane oggetto di intenso dibattito nella comunità scientifica e politica.
Altman ha inoltre posto l’accento su una questione di potere e distribuzione delle risorse: l’umanità si trova di fronte a un bivio tra la democratizzazione dell’accesso all’intelligenza artificiale e la sua concentrazione nelle mani di poche aziende o nazioni. In termini economici e geopolitici, la disponibilità di capacità computazionale su larga scala diventa un fattore strategico comparabile alle risorse energetiche o alle infrastrutture critiche. La sua insistenza sulla necessità di maggiore potenza di calcolo e sulla raccolta di fondi tramite iniziative come l’espansione delle attività pubblicitarie legate a ChatGPT riflette la consapevolezza che la corsa alla superintelligenza è anche una corsa alle infrastrutture.
Nel complesso, la previsione di una possibile superintelligenza entro il 2028 segna un punto di svolta nel discorso pubblico di Sam Altman. Essa combina tre dimensioni strettamente interconnesse: l’accelerazione tecnica dei modelli AI, l’espansione massiccia delle infrastrutture computazionali e la necessità urgente di meccanismi di governance multilivello. Se tale scenario si concretizzasse, la fine del decennio potrebbe rappresentare non solo un salto tecnologico, ma una trasformazione strutturale nel modo in cui l’umanità produce conoscenza, prende decisioni e organizza il potere su scala globale.