Immagine AI

Negli ultimi mesi il dibattito sull’evoluzione dell’intelligenza artificiale ha assunto una nuova direzione concettuale: non si parla più soltanto di modelli più grandi o più efficienti, ma dell’ingresso in una fase in cui l’AI contribuisce direttamente allo sviluppo della generazione successiva di sistemi. Questa dinamica è stata definita “auto-miglioramento ricorsivo”, un paradigma in cui i modelli vengono impiegati per progettare, testare, ottimizzare e persino valutare altri modelli, generando un ciclo di accelerazione interna che potrebbe modificare radicalmente la traiettoria del progresso tecnologico.

Aleksandr Wang, Chief AI Officer di Scale AI, intervenendo alla CNBC durante l’AI Impact Summit di Nuova Delhi il 19 del mese, ha proposto una lettura storica dello sviluppo recente dell’intelligenza artificiale suddividendolo in tre grandi ere tecnologiche. La prima è l’era del pre-addestramento, caratterizzata dall’uso sistematico di grandi volumi di dati e potenza computazionale per migliorare le prestazioni dei modelli. In questa fase, l’andamento delle performance seguiva leggi di scala relativamente prevedibili: più dati e più calcolo si traducevano in migliori capacità linguistiche, logiche e generative. Era un periodo dominato dall’ottimizzazione quantitativa, in cui la crescita era sostanzialmente lineare rispetto agli investimenti.

Con il progressivo emergere dei limiti di queste leggi di scala, l’attenzione si è spostata verso tecniche più sofisticate di apprendimento, in particolare verso il reinforcement learning e i metodi di ragionamento strutturato. L’introduzione di modelli come o1 da parte di OpenAI nel 2024 ha segnato simbolicamente l’ingresso nell’era dell’apprendimento per rinforzo applicato ai large language model. In questo stadio, i modelli non si limitano a prevedere la parola successiva, ma apprendono strategie di ragionamento, pianificazione e ottimizzazione attraverso cicli di feedback strutturati.

Secondo Wang, tuttavia, alla fine del 2025 si sarebbe aperto un paradigma completamente nuovo: l’era dell’auto-miglioramento ricorsivo. In questa fase l’intelligenza artificiale diventa uno strumento operativo per accelerare la produzione della successiva intelligenza artificiale. Il concetto implica che sistemi avanzati siano impiegati per generare dati sintetici di alta qualità, identificare errori architetturali, proporre miglioramenti nei parametri, ottimizzare pipeline di addestramento e persino scrivere codice per nuovi modelli. Il ritmo di sviluppo, in questa prospettiva, non sarebbe più lineare ma esponenziale, poiché ogni miglioramento incrementa la capacità del sistema di generare ulteriori miglioramenti.

Questo fenomeno è già osservabile nel campo degli agenti di codifica. I modelli moderni non solo suggeriscono frammenti di codice, ma analizzano repository complessi, eseguono debug, valutano test unitari e propongono modifiche strutturali. Un esempio emblematico è rappresentato da GPT-5.3 Codex, presentato da OpenAI come il primo modello ad aver svolto un ruolo significativo nel proprio processo interno di sviluppo. Secondo le dichiarazioni del CEO Sam Altman, una versione preliminare del modello è stata utilizzata per eseguire debug del suo stesso apprendimento, gestire l’implementazione e valutare risultati di test e benchmark. Questo costituisce un esempio concreto di ciclo ricorsivo, in cui un sistema contribuisce all’ottimizzazione della propria evoluzione.

La nozione di auto-miglioramento ricorsivo non è nuova in senso teorico. Già nel 2018 era stata formalizzata come ciclo di feedback in cui un sistema di intelligenza artificiale conduce ricerca e sviluppo per generare versioni più avanzate di sé stesso o di sistemi analoghi. Più recentemente, il concetto di apprendimento continuo ha rafforzato questa prospettiva, indicando la capacità dei modelli di migliorare anche dopo la fase di pre-addestramento attraverso interazioni dinamiche, aggiornamenti incrementali e adattamenti contestuali.

Le implicazioni di questo paradigma sono rilevanti anche dal punto di vista della sicurezza. Boris Czerny, responsabile di Cloud Code in Anthropic, ha discusso pubblicamente del passaggio del livello di sicurezza AI da ASL3 ad ASL4. L’AI Safety Level (ASL), standard introdotto da Anthropic nel 2023, classifica i modelli in una scala da 1 a 5 in base ai rischi potenziali e alle misure di mitigazione necessarie. Il livello 3 si riferisce a modelli capaci di fornire supporto in attacchi informatici complessi o minacce biologiche. Il livello 4, secondo Czerny, corrisponderebbe a sistemi in grado di migliorarsi ricorsivamente. Questo scenario comporta rischi qualitativamente differenti, poiché la capacità di auto-ottimizzazione potrebbe amplificare rapidamente potenziali vulnerabilità o usi impropri.

L’ipotesi di una rapida accelerazione verso l’AGI è stata ripresa anche da Demis Hassabis di Google DeepMind, che ha indicato il 2030 come possibile orizzonte temporale per sistemi di intelligenza artificiale generale. Sam Altman ha spinto ulteriormente la previsione, suggerendo che entro il 2028 una porzione significativa della capacità intellettuale mondiale potrebbe risiedere nei data center piuttosto che negli esseri umani. Tali dichiarazioni riflettono la convinzione che la combinazione tra agenti autonomi, apprendimento continuo e auto-miglioramento ricorsivo possa comprimere drasticamente i tempi di avanzamento tecnologico.

Va tuttavia sottolineato che l’attuale stato dell’arte non implica ancora la piena autonomia dei sistemi nella creazione di nuova intelligenza artificiale. I modelli richiedono supervisione umana, infrastrutture computazionali e processi di validazione rigorosi. Tuttavia, il miglioramento sorprendentemente rapido degli agenti di codifica e dei sistemi di ottimizzazione automatica suggerisce che la soglia oltre la quale l’AI potrà contribuire in modo strutturale al proprio sviluppo complessivo potrebbe essere più vicina di quanto previsto pochi anni fa.

L’era dell’auto-miglioramento ricorsivo, se confermata nei fatti, rappresenterebbe una discontinuità rispetto alle precedenti fasi evolutive dell’intelligenza artificiale. Non si tratterebbe soltanto di modelli più grandi o più performanti, ma di un cambiamento nel meccanismo stesso di progresso tecnologico, in cui il sistema diventa co-autore del proprio sviluppo. Questo scenario apre prospettive straordinarie in termini di produttività e innovazione, ma richiede al contempo un rafforzamento delle strutture di governance, sicurezza e controllo, affinché l’accelerazione esponenziale non superi la capacità umana di indirizzarla in modo responsabile.

Di Fantasy