I ricercatori di Samsung Electronics hanno recentemente introdotto una tecnologia innovativa per ottimizzare l’applicazione dei “guardrail” nei Large Language Model (LLM) in modo efficiente. Questi “guardrail” servono a mantenere la precisione del modello, riducendo drasticamente la necessità di riqualificazione. Questo rappresenta un significativo avanzamento, visto che Samsung Electronics raramente pubblica articoli in questo campo, dimostrando un impegno concreto nella ricerca sui LLM.

Secondo MarkTechPost, i ricercatori del Samsung R&D Institute nel Regno Unito hanno pubblicato uno studio su “LoRA-Guard: adattamento efficiente dei guardrail dei parametri per la moderazione dei contenuti nei LLM”. Lo studio spiega come applicare efficacemente i guardrail senza compromettere le prestazioni del LLM, riducendo notevolmente le risorse necessarie per il fine tuning.

I guardrail sono essenzialmente misure di sicurezza per prevenire output inappropriati o attacchi dannosi da parte degli utenti. Solitamente, applicare questi guardrail richiede una riqualificazione completa del modello pre-addestrato, consumando molte risorse. Tuttavia, grazie a LoRA, i ricercatori Samsung hanno sviluppato un approccio che si concentra solo sulle modifiche necessarie per migliorare le prestazioni del modello durante la messa a punto.

Utilizzando adattatori di basso rango nella dorsale del trasformatore del modello LLM, il sistema LoRA rileva i contenuti dannosi e adatta i parametri dei guardrail in modo efficiente. Questo metodo ha dimostrato di ridurre il carico dei parametri fino a 1000 volte rispetto ai metodi tradizionali, rendendolo adatto anche a contesti con risorse limitate.

L’architettura LoRA-Guard è progettata per integrare in modo efficiente la funzionalità di guardia nei modelli di chat LLM, mantenendo la fluidità tra le funzioni di chat e quelle di sicurezza. Questo design a “doppio percorso” consente al sistema di svolgere entrambi i ruoli senza compromettere le prestazioni complessive.

Mark Tech Post ha commentato che LoRA-Guard sta guadagnando attenzione come metodo efficace per rafforzare la sicurezza dei LLM, specialmente in ambienti con risorse limitate.

Samsung Electronics sta anche sviluppando un proprio LLM per integrarlo nell’assistente vocale Bixby, suggerendo che questa tecnologia potrebbe presto essere implementata su scala più ampia, potenzialmente con un modello linguistico più piccolo (sLM) contenente meno di 10 miliardi di parametri.

Di Fantasy