I ricercatori di Microsoft e dell’Università di Beihang hanno sviluppato una nuova tecnica per ottimizzare i modelli linguistici di grandi dimensioni (LLM) a un costo significativamente ridotto.
Questa nuova tecnica, chiamata MoRA, è un metodo di regolazione fine efficiente dei parametri (PEFT) che supera alcuni limiti di altre tecniche popolari come LoRA. MoRA è particolarmente utile per ottimizzare i modelli in attività che richiedono l’acquisizione di nuove conoscenze. Con l’aumento della popolarità dei metodi PEFT, MoRA potrebbe diventare uno strumento importante per gli sviluppatori di applicazioni LLM.
La messa a punto tradizionale richiede l’aggiornamento di tutti i parametri di un LLM, un processo costoso e lento quando il modello ha miliardi di parametri. Le tecniche PEFT, invece, si basano sull’idea che non sia necessario aggiornare tutti i parametri durante l’ottimizzazione per applicazioni specifiche. Questi metodi identificano il sottoinsieme ottimale di parametri da modificare per configurare il modello per l’attività target.
LoRA è una tecnica PEFT popolare che aggiorna i parametri tramite matrici di basso rango, riducendo i requisiti di memoria e facilitando la gestione dei modelli ottimizzati. Tuttavia, LoRA ha difficoltà con compiti complessi che richiedono l’apprendimento di nuove conoscenze, come il ragionamento matematico e la formazione continua. Il meccanismo di aggiornamento di basso rango di LoRA può limitare la capacità dei modelli di apprendere e memorizzare nuove informazioni.
Per superare questi limiti, i ricercatori hanno introdotto MoRA, che utilizza una matrice quadrata invece di matrici di basso rango. MoRA sfrutta parametri addestrabili per raggiungere il rango più alto possibile nello spazio delle dimensioni originali del modello. A differenza di LoRA, MoRA richiede una funzione di compressione/decompressione per trasformare gli input tra i due spazi, permettendo di integrarla facilmente in LLM di diverse dimensioni.
Secondo i ricercatori, MoRA ha una maggiore capacità di apprendere nuove conoscenze rispetto a un modello LoRA di pari dimensioni. I test comparativi hanno dimostrato che MoRA sovraperforma LoRA nelle attività di memorizzazione, avvicinandosi molto alle prestazioni di un modello completamente ottimizzato con meno parametri e passaggi di formazione.
Nelle attività di ottimizzazione delle istruzioni e di ragionamento matematico, MoRA ha mostrato prestazioni simili a LoRA. Tuttavia, nella formazione continua in settori come quello biomedico e finanziario, MoRA ha superato LoRA, grazie alla sua capacità di memorizzare nuove conoscenze.
I ricercatori hanno anche scoperto che aumentare il rango dell’adattatore MoRA può eliminare il divario prestazionale tra PEFT e la messa a punto completa nei compiti di ragionamento matematico, sebbene comporti costi di formazione e archiviazione più elevati.
La messa a punto è cruciale per le applicazioni LLM aziendali, migliorando capacità e accuratezza sui dati proprietari e permettendo l’uso di modelli più piccoli per attività che richiederebbero altrimenti modelli più costosi.
Attualmente, LoRA e le sue varianti sono gli standard di riferimento per la messa a punto efficiente dei parametri. Esiste un ricco ecosistema di strumenti per la creazione di adattatori LoRA. Ad esempio, S-LoRA è un framework che permette di eseguire migliaia di adattatori LoRA su una singola GPU, utile per applicazioni che richiedono molti LLM ottimizzati.
I ricercatori di Microsoft e Beihang hanno rilasciato un’implementazione open source di MoRA, compatibile con LoRA, che potrebbe diventare uno strumento importante per le aziende che desiderano arricchire i loro modelli di base con nuove conoscenze.