Negli ultimi anni, il dibattito sull’intelligenza artificiale ha spesso oscillato tra entusiasmo per le sue potenzialità e timori per il suo impatto futuro sulla società umana. All’interno di questo contesto si inserisce una notizia che ha attirato l’attenzione di studiosi, tecnologi e del grande pubblico: le previsioni relative alla cosiddetta superintelligenza artificiale — un sistema teorico capace di superare gli esseri umani in ogni compito cognitivo — sono state rivedute e aggiornate, allontanando nel tempo la possibilità di un suo sviluppo imminente e, con essa, le ipotesi più catastrofiche associate a questo traguardo.
L’idea di un’IA in grado non solo di eguagliare ma di superare l’intelligenza umana ha alimentato scenari apocalittici, soprattutto dopo la pubblicazione del rapporto speculativo AI 2027 che sosteneva come tale superintelligenza potesse emergere già entro la fine del decennio, con potenziali conseguenze drastiche per la civiltà, arrivando persino alla distruzione dell’umanità se un’IA avanzata considerasse gli esseri umani un ostacolo alla propria evoluzione.
Tuttavia, secondo uno studio più recente firmato da alcuni degli stessi autori di AI 2027, tra cui l’ex ricercatore di OpenAI Daniel Kokotajlo e altri esperti in previsioni tecnologiche, il ritmo attuale dell’innovazione non sembra correre così veloce come si pensava. Le stime ora spostano la possibile comparsa di una superintelligenza artificiale almeno fino al 2034, con la prospettiva che possa essere anche successiva a questa data.
Questa revisione nasce da una riconsiderazione dei dati e delle premesse metodologiche utilizzate nello studio precedente. Gli autori riconoscono che, per realizzare un sistema con capacità cognitive significativamente superiori a quelle umane in tutti gli ambiti, l’intelligenza artificiale dovrebbe sviluppare competenze pratiche complesse e una comprensione del mondo reale ben oltre i livelli attuali. In pratica, non basta che un algoritmo sia potente nel generare testo o nel risolvere problemi specifici: per raggiungere la soglia della superintelligenza dovrebbe operare in modo autonomo in situazioni complesse e reali, un traguardo che oggi resta lontano.
Nel quadro di questa revisione ottimistica, la possibilità di una “apocalisse tecnologica” — un evento in cui l’IA, superando gli umani, comporti la nostra estinzione — viene considerata sempre meno probabile nel breve termine. I ricercatori stessi ammettono che la previsione iniziale del 2027 era basata su ipotesi aggressive sul ritmo di sviluppo tecnologico e sull’automazione della ricerca sull’intelligenza artificiale. Ora, con una migliore comprensione della complessità reale di questi progressi, la comunità scientifica tende a vedere l’evoluzione dei sistemi di IA come un processo più graduale, soggetto alle inevitabili inerzie del mondo reale come infrastrutture, risorse materiali e complessità sociale.
Questa nuova tempistica è stata commentata anche da altri esperti in materia di sicurezza dell’IA. Nel dibattito internazionale emerge un punto importante: l’intelligenza artificiale sta effettivamente avanzando e ha già avuto impatti profondi in molti settori, dalla salute all’industria, fino alla comunicazione. Ma una distinzione chiara tra gli attuali sistemi di IA — potenti sotto molti aspetti ma ancora limitati nella comprensione e nell’autonomia — e la visione eterea di una superintelligenza autonoma e autosufficiente rimane fondamentale per evitare allarmismi eccessivi e speculazioni poco fondate.
Nel frattempo, l’attenzione degli studiosi non è rivolta solo alle previsioni temporali ma anche a come governare e controllare lo sviluppo di sistemi avanzati in modo sicuro e responsabile. Progetti di governance internazionale, come proposte per accordi globali o regolamentazioni condivise, cercano di bilanciare la ricerca di innovazione con la prevenzione di rischi potenzialmente gravi, pur senza cedere alle narrazioni più fantasiose. Queste iniziative puntano a creare contesti in cui l’IA possa evolvere beneficiando l’umanità, riducendo al minimo i rischi associati a capacità non allineate con gli interessi umani.