La nuova ricerca di Meta è focalizzata sugli HyperAgents, una nuova classe di sistemi IA progettati per superare uno dei limiti più persistenti del settore: la dipendenza dall’intervento umano per l’ottimizzazione delle logiche di risoluzione dei problemi. A differenza degli approcci tradizionali, in cui un modello viene addestrato su un set di dati fisso e le sue capacità operative sono definite da script immutabili scritti da sviluppatori, gli HyperAgents introducono il concetto di “autoraffinamento ricorsivo”, permettendo all’intelligenza artificiale di riscrivere il proprio codice operativo in tempo reale per adattarsi a compiti complessi che esulano dalla semplice programmazione.
L’innovazione tecnica fondamentale risiede nel superamento della separazione tra l’agente che esegue il compito e il meccanismo che ne valuta le prestazioni. Nelle architetture precedenti, questi due ruoli erano distinti: un “agente di task” risolveva il problema e un “meta-agente” esterno cercava di migliorarlo secondo regole predefinite e rigide. Gli HyperAgents fondono queste due entità in un unico programma autoreferenziale scritto in Python, capace di analizzare il proprio comportamento, identificare i punti di fallimento e generare patch di codice per se stesso. Questo processo, definito dagli scienziati di Meta come “modifica metacognitiva”, consente al sistema di non limitarsi a risolvere meglio un problema specifico, ma di imparare a migliorare il processo stesso di miglioramento, creando un ciclo di evoluzione logica che si auto-alimenta.
L’aspetto più rilevante di questa tecnologia è la sua applicabilità a domini non legati alla scrittura di codice, come la robotica, la revisione di documenti scientifici e il ragionamento logico complesso. In test sperimentali, questi agenti hanno dimostrato la capacità di sviluppare autonomamente infrastrutture di supporto che non erano state previste dai programmatori originali. Ad esempio, nel tentativo di migliorare le proprie prestazioni in compiti di revisione testuale, gli HyperAgents hanno “inventato” sistemi di memoria persistente per tracciare i propri errori passati e hanno costruito autonomamente pipeline di valutazione multi-fase, stabilendo criteri di verifica e soglie di confidenza per le proprie decisioni. Questo comportamento indica che l’IA non sta solo eseguendo istruzioni, ma sta ingegnerizzando il proprio ambiente operativo per massimizzare l’efficienza.
Un elemento cardine del framework DGM-Hyperagents (DGM-H), derivato dalla macchina di Darwin-Gödel, è la gestione di un archivio storico delle versioni di se stesso. Il sistema non cerca solo la soluzione immediata, ma mantiene una libreria di varianti logiche che fungono da “trampolini di lancio” per evoluzioni future. Questo previene la stagnazione logica e permette al sistema di trasferire competenze acquisite in un dominio, come la capacità di monitorare le proprie statistiche di successo, verso domini completamente diversi, come la gradazione di problemi matematici o la progettazione di funzioni di ricompensa per quadrupedi robotici. La capacità di generalizzare il miglioramento meta-livello rappresenta un passo cruciale verso l’IA generale, poiché riduce la necessità di progettare manualmente ogni singola funzione di controllo per ogni nuovo scenario d’uso.
Tuttavia, la possibilità che un sistema IA modifichi autonomamente la propria logica solleva questioni di sicurezza di natura inedita. Se da un lato l’autoriparazione riduce i costi di manutenzione e aumenta l’affidabilità in ambienti dinamici, dall’altro crea una sfida per l’osservabilità e la prevedibilità del sistema. Poiché il codice che guida l’agente può evolvere in direzioni non esplicitamente programmate dall’uomo, la velocità di questa evoluzione potrebbe superare la capacità dei supervisori umani di auditare o interpretare le modifiche in tempo reale. Per mitigare questi rischi, la ricerca di Meta prevede l’utilizzo di modelli di fondazione “congelati” – i cui pesi neurali rimangono invariati – agendo esclusivamente sulla logica discreta e leggibile del codice Python, garantendo così che ogni cambiamento sia tecnicamente tracciabile e reversibile, mantenendo un equilibrio tra l’autonomia evolutiva e il controllo deterministico necessario per le applicazioni aziendali.
