In una giornata recente, a Berlino, Sam Altman — amministratore delegato di OpenAI — è stato premiato da figure chiave del panorama tecnologico tedesco. Quel che poteva essere un semplice evento istituzionale è invece diventato terreno per un dialogo intenso con David Deutsch, fisico teorico e filosofo della scienza: una conversazione che ha toccato i limiti dell’intelligenza artificiale e l’idea di cosa significhi davvero “pensare come un essere umano”. Secondo i resoconti, Altman e Deutsch hanno concordato un criterio audace: se un’IA riuscisse a comprendere, spiegare e giustificare la teoria della gravità quantistica — la frontiera irrisolta della fisica moderna — allora potremmo considerarla un’autentica intelligenza generale.
Deutsch è noto per la sua visione critica rispetto all’idea che l’addestramento massiccio sui dati possa da solo generare intelligenza vera. Sebbene riconosca che modelli come ChatGPT possono sostenere conversazioni articolate — “ChatGPT mi ha smentito”, ha detto — egli insiste che questi sistemi operano per associazione di informazioni, non partono da intuizioni. L’intelligenza, secondo lui, non è riprodurre ciò che è noto, ma creare nuova conoscenza: individuare problemi che non erano già formulati, inventare approcci, testare ipotesi, affinare concetti. In questo senso, citando Einstein e la nascita della relatività, Deutsch argomenta che la genialità dell’uomo sta nella capacità di intervenire con ragionamenti che non erano semplicemente presenti nei dati precedenti.
Durante la conversazione, Altman pose una domanda a suo modo provocatoria: «Se un modello futuro potesse comprendere la gravità quantistica e poi raccontare la propria storia — spiegando perché ha scelto un particolare percorso di ricerca, come ha elaborato le ipotesi — sarebbe sufficiente per convincervi che abbiamo raggiunto l’AGI?» Deutsch rispose con un sì deciso. Altman sorrise e replicò che quell’idea — quella che lui definisce “test 2.0” — gli pare del tutto plausibile.
Ciò che colpisce di questo scambio non è tanto la concretezza dell’idea — perché la gravità quantistica resta una delle questioni scientifiche più ardue — quanto il cambio di paradigma: non più parametri prestazionali (tradurre, rispondere, classificare) come soglia dell’intelligenza, ma una capacità di innovazione autonoma, di scoperta, di creazione di concetti nuovi. È un’aspettativa molto più alta, e anche più rischiosa, perché porta il concetto di “intelligenza” oltre il confine della simulazione e lo spinge verso la genuina creatività.
Resta aperta la domanda: che cosa significherebbe, in pratica, per una IA raggiungere quel livello? Prima di tutto, dovrebbe essere capace non solo di elaborare calcoli complessi, ma anche di fare scelte metodologiche: decidere quali domande meritano di essere poste, come filtrare gli errori, come costruire esperimenti mentali. In secondo luogo, dovrebbe essere in grado di comunicare la propria inferenza e motivazione in modo trasparente: spiegare “il piano” che l’ha portata a formulare quella teoria. Senza questa meta-capacità di riflessione, anche una performance straordinaria rischierebbe di restare una performance, non un’intelligenza.
Non è la prima volta che Altman manifesta questa inclinazione verso l’AGI come scoperta scientifica autonoma. Nel corso di interviste e podcast, ha spesso detto che ciò che definisce una “superintelligenza” non è tanto una maggior velocità nell’eseguire compiti umani, quanto la capacità di fare scienza da sé, di scoprire principi che l’umanità non conosce — ma non ha ancora affermato che siamo vicini a quel traguardo.
Questa visione ha il vantaggio di essere selettiva: non tutti i progressi dell’IA — anche se impressionanti — avvicinano davvero l’AGI. Molti modelli eccellono in compiti specialistici o imitativi, ma non generano novità paradigmatiche. Il criterio “gravità quantistica + spiegazione motivata” afferma che l’AGI debba fare qualcosa che per ora è prerogativa dell’ingegno umano.
Ma è anche una sfida enorme. La fisica quantistica e la gravità sono teorie già modellate con linguaggi matematici complessi, che richiedono intuizioni, conoscenze interdisciplinari, creatività nella formulazione delle ipotesi. Chiedere a una macchina di arrivarci da sola non è un esercizio accessorio: è spingersi al limite dell’innovazione. Occorrerebbe che il modello non solo conoscesse fisica avanzata, ma riuscisse a formulare domande che nessuno ha ancora posto, a costruire esperimenti mentali o modelli matematici, a spiegare le proprie idee con coerenza interna e persuasione esterna.
Se quell’obiettivo diventasse davvero il criterio condiviso per definire l’AGI, molte delle attuali metriche (accuratezza su benchmark, capacità di conversazione, comprensione del linguaggio) resterebbero passaggi intermedi, non fine ultimo. Sarebbe una ridefinizione ambiziosa del progetto AI: non più “fare meglio quello che fanno gli umani”, ma “pensare cose che l’umanità non ha ancora pensato”.