Nell’universo in continua espansione dell’intelligenza artificiale, una delle sfide più affascinanti e al tempo stesso più insidiose riguarda la gestione del contesto. I modelli moderni sono stati addestrati per “ricordare” e collegare informazioni lungo finestre sempre più ampie, con l’idea che più dati significassero automaticamente migliori risultati. Ma non è così semplice.
Aaron Levie, CEO di Box, ha recentemente introdotto un concetto che rende bene la complessità di questo problema: il “context rot”, letteralmente la “marcescenza del contesto”. Secondo Levie, caricare un modello di troppi dettagli non è sempre utile: anzi, rischia di confondere l’agente, costringendolo a perdersi tra le informazioni e a dare peso a ciò che non è davvero rilevante. In altre parole, più che arricchire l’intelligenza artificiale, un eccesso di memoria può soffocarla.
Negli ultimi anni, i laboratori di ricerca hanno spinto molto sull’ampliamento delle finestre di contesto, cercando di costruire super-agenti in grado di gestire qualsiasi tipo di compito complesso. Ma questa ambizione, sostiene Levie, non sempre si traduce in successo. Più un’attività si prolunga nel tempo e aumenta di complessità, più diventa difficile per l’agente stabilire su cosa concentrarsi davvero.
La soluzione? Non costruire un’unica entità onnisciente, ma piuttosto un ecosistema di sub-agenti specializzati, ognuno con obiettivi chiari e un contesto limitato, che collaborano come membri di una squadra. È l’equivalente digitale di un team di esperti che affronta un progetto: ognuno porta la sua competenza specifica, riducendo il rischio che l’intero processo deragli a causa di un singolo errore.
Levie insiste su un punto fondamentale: la qualità conta più della quantità. Fornire all’intelligenza artificiale informazioni precise, ben contestualizzate e rilevanti è la chiave per ottenere risultati solidi. Al contrario, inondare il modello di dati rischia di indebolirne le prestazioni. È un equilibrio sottile, quasi artigianale, tra dare abbastanza input e non soffocare la capacità di discernimento del sistema.
Questa osservazione non riguarda solo gli agenti attuali, ma si estende alla traiettoria verso la cosiddetta AGI (Artificial General Intelligence), l’intelligenza artificiale generale. Se molte aziende puntano a costruire un singolo cervello artificiale universale, altre – come lo stesso Levie – immaginano piuttosto un futuro fatto di intelligenze distribuite, coordinate ma non monolitiche.
Sul fronte opposto, alcuni giganti come Alibaba stanno lavorando su tecnologie di memoria dinamica, che permettono agli agenti di aggiornare costantemente la propria “esperienza procedurale”. In teoria, questo consentirebbe a un singolo sistema di adattarsi, ricordare e migliorare nel tempo, affrontando compiti sempre più complessi.
Tuttavia, il rischio degli errori cumulativi rimane alto. Come ha spiegato Patronus AI, anche un minimo errore in un singolo passaggio può moltiplicarsi lungo la catena delle operazioni. Con una probabilità di errore dell’1% per step, al centesimo passaggio la probabilità complessiva di fallimento arriva al 63%. Un effetto domino che mette in crisi l’idea stessa di super-agente autonomo.
In questo scenario, il “context rot” non è solo un problema tecnico, ma un campanello d’allarme su come stiamo immaginando il futuro dell’intelligenza artificiale. Più che concentrare tutto in un unico modello sovraccarico, l’approccio che sembra emergere è quello dei “sistemi di agenti di squadra”, strutture modulari e distribuite, in cui la collaborazione tra sub-agenti riduce i rischi e aumenta l’efficienza.
Se l’AGI del futuro nascerà da un unico grande cervello o da una rete di menti artificiali coordinate, resta ancora un’incognita. Ma una cosa appare chiara: come per gli esseri umani, anche per le intelligenze artificiali troppa memoria può diventare un fardello, non un vantaggio.