Il KAIST ha annunciato lo sviluppo di una nuova tecnologia di apprendimento per reti neurali profonde che integra principi fondamentali del funzionamento cerebrale umano all’interno dei modelli di intelligenza artificiale. Il risultato è frutto del lavoro del team guidato dal professor Sang-Wan Lee del Dipartimento di Scienze Cognitive e del Cervello, con il dottor Ha Myeong-hun come primo autore dello studio. La ricerca è stata accettata alla International Conference on Learning Representations 2026, uno dei principali appuntamenti scientifici internazionali nel campo del deep learning.
Il punto di partenza dello studio è una differenza strutturale tra sistemi artificiali e cervello biologico: l’intelligenza artificiale contemporanea, in particolare quella basata su reti neurali profonde addestrate tramite backpropagation, richiede quantità significative di energia e risorse computazionali. Il cervello umano, al contrario, è in grado di eseguire elaborazioni estremamente complesse con un consumo energetico contenuto. Questa efficienza è legata non solo alla struttura biologica, ma anche al principio di elaborazione dell’informazione adottato dal sistema nervoso.
Uno dei meccanismi teorici più influenti nella neuroscienza computazionale è la codifica predittiva. Secondo questo paradigma, il cervello non si limita a reagire passivamente agli stimoli presenti, ma genera costantemente previsioni sugli eventi futuri. Quando la realtà percepita diverge dalla previsione, il sistema aggiorna i propri modelli interni riducendo progressivamente l’errore di previsione. L’apprendimento avviene quindi come processo continuo di minimizzazione della discrepanza tra aspettativa e percezione.
Negli ultimi anni diversi gruppi di ricerca hanno tentato di trasferire questo principio nei modelli di deep learning. Tuttavia, l’applicazione diretta della codifica predittiva alle reti neurali profonde ha incontrato ostacoli matematici e computazionali. All’aumentare della profondità della rete, gli errori di previsione tendono a concentrarsi in specifici livelli oppure a svanire prematuramente, generando instabilità e cali ricorrenti delle prestazioni. Questo fenomeno limita la scalabilità del metodo e ne riduce l’efficacia rispetto alla backpropagation tradizionale.
Il contributo principale del team di KAIST consiste nell’aver individuato formalmente la causa di questa instabilità e nell’aver proposto una soluzione concettuale e algoritmica definita meta-previsione. In questo nuovo approccio, la rete non si limita a prevedere l’output finale, ma apprende anche a stimare l’evoluzione futura dei propri errori di previsione. In altri termini, il modello integra una rappresentazione dinamica delle proprie discrepanze interne, anticipando come esse si propagheranno nei livelli successivi. Questo meccanismo introduce una forma di controllo anticipatorio sull’apprendimento, riducendo le oscillazioni e stabilizzando l’aggiornamento dei parametri.
Dal punto di vista matematico, la meta-previsione estende la formulazione classica delle reti di codifica predittiva, note come Predictive Coding Networks, introducendo termini aggiuntivi che modellano la traiettoria temporale dell’errore. Il risultato è un sistema denominato Meta-PCN, capace di mantenere un flusso informativo distribuito tra i livelli senza richiedere il calcolo simultaneo dell’intera rete, come avviene nella backpropagation. In quest’ultima, infatti, l’errore viene calcolato all’uscita e retropropagato attraverso tutti i livelli in modo strettamente sequenziale e interconnesso, rendendo l’aggiornamento globale e sincrono.
Nei test sperimentali condotti dal gruppo di ricerca, il nuovo metodo è stato valutato in 30 esperimenti comparativi. In 29 casi, Meta-PCN ha ottenuto una precisione superiore rispetto alla backpropagation standard. Oltre al miglioramento quantitativo dell’accuratezza, i ricercatori hanno osservato una maggiore stabilità dell’apprendimento nelle reti profonde, con riduzione dei fenomeni di saturazione o collasso dell’errore. Questo suggerisce che l’approccio possa offrire vantaggi concreti in scenari in cui la profondità del modello e la complessità dei dati rendono critica la gestione del gradiente.
Un aspetto particolarmente rilevante riguarda la possibilità di apprendimento distribuito e parziale. Mentre la backpropagation richiede che tutti i livelli siano aggiornati in modo coordinato, il nuovo metodo consente aggiornamenti più locali e asincroni, avvicinandosi al funzionamento del cervello, dove l’elaborazione è distribuita e non centralizzata. Questa caratteristica apre prospettive interessanti per l’integrazione con architetture hardware neuromorfiche, progettate per replicare la dinamica delle reti neuronali biologiche con elevata efficienza energetica.
Le implicazioni applicative sono ampie. Nell’ambito dell’informatica neuromorfica, dove il consumo energetico rappresenta un vincolo fondamentale, un metodo di apprendimento più stabile e distribuito potrebbe ridurre la necessità di calcoli globali ad alta intensità. Nella robotica autonoma, sistemi capaci di anticipare l’evoluzione dei propri errori potrebbero adattarsi in modo più fluido a ambienti dinamici e imprevedibili. Analogamente, nell’intelligenza artificiale edge, che opera direttamente su dispositivi con risorse limitate, un algoritmo meno dipendente da sincronizzazioni globali potrebbe migliorare l’efficienza operativa.
Il professor Sang-Wan Lee ha sottolineato che l’obiettivo dello studio non è replicare superficialmente l’architettura del cervello, ma trasferirne i principi di apprendimento. Questo orientamento distingue l’approccio da molte implementazioni di ispirazione biologica che si concentrano prevalentemente sulla struttura delle reti. In questo caso, l’attenzione è rivolta alla dinamica dell’errore e alla capacità del sistema di auto-regolarsi in modo predittivo.
La ricerca è stata sostenuta dal Ministero della Scienza e delle ICT della Corea del Sud, dal progetto Digital Field Global Research Support dell’Agenzia nazionale per la promozione dell’industria IT, in collaborazione con Microsoft Research, nonché da iniziative di Samsung Electronics SAIT NPRC e dal progetto SW Star Lab. Questo ampio supporto istituzionale e industriale evidenzia l’interesse strategico verso tecniche di apprendimento alternative alla backpropagation, considerate potenzialmente decisive per la prossima generazione di sistemi di intelligenza artificiale.
