Nel fervore delle innovazioni nel campo dell’intelligenza artificiale, emerge una ricerca che sembra far intravedere una svolta: cosa accadrebbe se un modello di linguaggio potesse non solo rispondere alle domande, ma anche apprendere, adattarsi e migliorarsi autonomamente? È proprio attorno a questo orizzonte che si muove SEAL, una tecnica sviluppata dal MIT che promette di trasformare i modelli linguistici “congelati” in entità capaci di evolversi da sé.
Il nucleo dell’innovazione sta nel superamento del paradigma tradizionale per cui, una volta addestrato, un grande modello di linguaggio rimane sostanzialmente invariato fino a una nuova fase di riaddestramento umano. SEAL (Self-Adapting LLMs) propone invece un modello in grado di generare da sé dati sintetici su cui autoregolarsi e affinarsi nel tempo. In altre parole, non più un sistema che “aspira ad apprendere” solo quando viene istruito da umani, ma un sistema che può guidare la propria evoluzione, proponendo modifiche, valutandone l’efficacia e adottandole autonomamente.
Il metodo SEAL è stato oggetto di un aggiornamento significativo: rispetto alla versione originale, ora include una struttura a doppio ciclo — un “ciclo interno” di fine-tuning supervisionato basato sulle modifiche auto-generate, e un “ciclo esterno” di ottimizzazione tramite rinforzo che guida il processo stesso di generazione delle modifiche. Questo schema mira a garantire che il modello non solo suggerisca cambiamenti a se stesso, ma impari anche a scegliere quali suggerimenti adottare per migliorare le sue prestazioni.
Una delle idee centrali che alimenta SEAL è quella delle “self-edits” (auto-modifiche). Queste prendono la forma di testi in linguaggio naturale che il modello produce per descrivere come modificare i propri pesi: possono essere riformulazioni, implicazioni logiche, indicazioni su strumenti o configurazioni utili all’allenamento. Il modello quindi applica tali edit tramite una fase di fine-tuning. Il processo è regolato da un meccanismo di rinforzo: le auto-modifiche che portano a miglioramenti effettivi nella prestazione ricevono ricompense, guidando così il modello verso strategie di auto-miglioramento più efficaci.
Nei test condotti dai ricercatori, SEAL ha mostrato risultati promettenti in due ambiti principali: l’incorporazione di nuove conoscenze e l’apprendimento con pochi esempi (few-shot). Nel primo caso, invece di addestrare direttamente su un nuovo brano testuale, il modello genera implicazioni sintetiche del contenuto e si allena su queste. Dopo soltanto due iterazioni di rinforzo, la precisione nella risposta a domande (senza contesto) è lievitata dal 33,5% al 47,0%, superando l’efficacia di sistemi che generano dati sintetici come GPT-4.1.
Nel contesto few-shot, dove i modelli devono ragionare avendo a disposizione solo alcune poche istanze di esempio, SEAL ha generato “self-edits” riguardanti augmentation dei dati e iperparametri. Il tasso di successo è salito fino al 72,5%, contro il 20% delle auto-modifiche senza fase di rinforzo e lo 0 % dei modelli che si basano solo sull’apprendimento contestuale.
Ma ovviamente non è tutto rose e fiori: il progetto SEAL si confronta anche con sfide importanti. Un problema classico nei modelli che si auto-modificano è il “catastrophic forgetting” — cioè la perdita di conoscenza precedentemente acquisita nel tentativo di apprendere qualcosa di nuovo. Qui SEAL tenta di attenuare il fenomeno grazie alla struttura stessa del meccanismo di rinforzo, privilegiando le auto-modifiche che non degradino le prestazioni pregresse. Tuttavia, la questione resta aperta e richiede ulteriore investigazione.
Un’altra criticità non banale è il costo computazionale: ogni auto-modifica deve essere valutata attraverso una fase di fine-tuning e test sulle prestazioni, e tali operazioni richiedono tempi che vanno da 30 a 45 secondi ciascuna. Questo rappresenta un overhead molto significativo rispetto agli standard attuali, soprattutto se si immagini di applicare SEAL in scenari real-time o su modelli molto grandi. Inoltre, l’attuale formulazione di SEAL presuppone che per ogni contesto ci sia un compito target e una risposta di riferimento computabile, limitando l’applicabilità diretta a dati non etichettati. Tuttavia, i ricercatori osservano che, fintanto che esiste un task finale con una funzione di ricompensa definita, SEAL può teoricamente adattarsi anche in domini sensibili, addestrandosi a evitare input dannosi se guidato dalla ricompensa appropriata.
La comunità di ricerca in AI ha accolto SEAL con entusiasmo e scetticismo al contempo. Su X (ex-Twitter), osservatori del settore hanno descritto l’aggiornamento come l’inizio dell’“era dei modelli auto-apprendenti”, suggerendo che il concetto di pesi immutabili sia ormai sorpassato. Alcuni addirittura parlano di modelli che riscrivono sè stessi per diventare più intelligenti, definendo il passo come una pietra miliare verso futuri GPT-6 che incorporino simili architetture.
C’è chi guarda a SEAL come a un primo passo verso agenti AI capaci di imparare continuamente dall’ambiente e adattarsi progressivamente, senza bisogno di guida esterna costante. E che cosa ci riserva il futuro? I ricercatori del MIT suggeriscono che SEAL possa estendersi ben oltre l’attuale ambito sperimentale, trovando applicazioni nella self-pretraining, nell’apprendimento continuo e nella costruzione di modelli agentici che interagiscono con ambienti in cambiamento. In scenari dove i dati web diventano saturi e la semplice espansione dimensionale dei modelli incontra limiti, approcci auto-diretti come SEAL possono diventare cruciali per spingere oltre i confini di ciò che i modelli di linguaggio sono capaci di fare.