DeepMind ha presentato una tecnica innovativa denominata “Mind Evolution” , mirata a ottimizzare le risposte dei modelli di linguaggio di grandi dimensioni (LLM) in compiti di pianificazione e ragionamento. Questa metodologia si inserisce nel contesto delle tecniche di scaling al tempo di inferenza, che consentono ai modelli di “pensare” più approfonditamente durante la generazione delle risposte.

La tecnica Mind Evolution combina algoritmi di ricerca con algoritmi genetici, ispirandosi ai processi di selezione naturale. Il processo inizia con la creazione di una popolazione di soluzioni candidate, generate da un LLM istruito con una descrizione del problema e informazioni pertinenti. Ogni soluzione viene valutata e, se non soddisfa i criteri desiderati, viene migliorata iterativamente. Le soluzioni di qualità superiore hanno maggiori probabilità di essere selezionate come “genitori” per la generazione successiva, attraverso processi di crossover e mutazione, affinando progressivamente le risposte fino a raggiungere l’ottimale o fino al completamento di un numero prestabilito di iterazioni.

L’adozione di Mind Evolution permette ai modelli di linguaggio di esplorare diverse soluzioni e migliorare le risposte attraverso un processo iterativo, senza richiedere una formalizzazione simbolica del problema. Questo approccio è particolarmente utile in compiti di pianificazione e ragionamento, dove la qualità delle risposte può essere significativamente migliorata grazie a una riflessione più approfondita durante il tempo di inferenza.

Le tecniche di scaling al tempo di inferenza sono diventate un tema centrale nell’intelligenza artificiale nel 2025, con vari laboratori che esplorano metodi per consentire ai modelli di dedicare più tempo al “pensiero” durante la generazione delle risposte. Queste metodologie mirano a migliorare le prestazioni dei modelli in compiti complessi, consentendo una maggiore accuratezza e affidabilità nelle applicazioni pratiche.

Di Fantasy