Recentemente, un team di ricercatori delle università di Stanford e Washington ha annunciato una scoperta che potrebbe abbassare significativamente i costi di addestramento dei modelli di intelligenza artificiale (AI). Utilizzando una tecnica chiamata “distillazione”, sono riusciti a costruire un modello di inferenza AI con un investimento di soli 50 dollari, circa 72.800 won sudcoreani. Questa innovazione potrebbe democratizzare l’accesso all’AI, rendendo la tecnologia più accessibile a una vasta gamma di utenti e applicazioni.
La distillazione è un processo in cui un modello AI di grandi dimensioni, noto come “insegnante”, trasferisce la sua conoscenza a un modello più piccolo, chiamato “studente”. Questo permette al modello studente di apprendere comportamenti complessi senza necessità di enormi risorse computazionali. Nel caso specifico, i ricercatori hanno applicato la distillazione al modello di Google “Gemini 2.0 Flash Thinking Experimental”, utilizzando un set di dati ridotto e tecniche di fine-tuning per ottimizzare l’efficienza del processo.
Il modello risultante, denominato “s1”, è stato addestrato in soli 26 minuti utilizzando 16 GPU NVIDIA H100, con un costo complessivo di circa 50 dollari. Nonostante le risorse limitate, “s1” ha mostrato un miglioramento fino al 27% nelle capacità matematiche rispetto al modello di base “Qwen 2.5”. Inoltre, l’applicazione di tecniche di “test-time scaling” ha ulteriormente potenziato le prestazioni del modello, consentendo una riflessione più approfondita prima di fornire una risposta.
Questa scoperta apre nuove possibilità per l’adozione dell’AI in contesti con risorse limitate. La capacità di sviluppare modelli di inferenza efficaci con costi contenuti potrebbe accelerare l’implementazione dell’AI in settori come l’istruzione, la sanità e le piccole imprese, democratizzando l’accesso a tecnologie avanzate. Tuttavia, è importante notare che, sebbene i modelli sviluppati siano promettenti, potrebbero non raggiungere ancora le prestazioni dei sistemi AI più avanzati come “DeepMind” o “OpenAI”. Nonostante ciò, la direzione intrapresa dai ricercatori suggerisce un futuro in cui l’AI è più accessibile e conveniente per una gamma più ampia di applicazioni.