Hugging Face ha lanciato oggi SmolLM, una nuova serie di modelli linguistici compatti che superano le offerte di Microsoft, Meta e Alibaba in termini di prestazioni. Questi modelli portano avanzate capacità di intelligenza artificiale ai dispositivi personali senza compromettere né le prestazioni né la privacy.
La gamma SmolLM include tre dimensioni: 135 milioni, 360 milioni e 1,7 miliardi di parametri, progettati per adattarsi a varie risorse computazionali. Nonostante le loro dimensioni ridotte, hanno dimostrato risultati superiori nei benchmark che testano il ragionamento basato sul buon senso e la conoscenza del mondo.
Loubna Ben Allal, lead ML engineer per SmolLM presso Hugging Face, ha evidenziato l’efficacia dei modelli mirati e compatti in un’intervista con VentureBeat. Ha paragonato l’uso di modelli più piccoli e specifici per attività particolari a “non usare una palla da demolizione per fare un buco nel muro”.
Il modello più piccolo, SmolLM-135M, ha superato MobileLM-125M di Meta nonostante l’addestramento su meno token. SmolLM-360M ha superato tutti i modelli con meno di 500 milioni di parametri, inclusi quelli di Meta e Qwen. Il modello di punta, SmolLM-1.7B, ha superato i benchmark di Phi-1.5 di Microsoft, MobileLM-1.5B di Meta e Qwen2-1.5B.
I modelli SmolLM di Hugging Face, evidenziati nella tabella per le loro prestazioni superiori, continuano a superare i modelli più grandi dei giganti tecnologici, dimostrando un’efficienza superiore in una vasta gamma di attività linguistiche. Hugging Face si distingue per la sua pratica di rendere tutto il processo di sviluppo open source, in linea con i valori di trasparenza e ricerca riproducibile dell’azienda.
Il successo dei modelli SmolLM è attribuito alla qualità dei dati di addestramento forniti da Cosmo-Corpus, che comprende Cosmopedia v2, Python-Edu e FineWeb-Edu. Questo mix di dati curati garantisce prestazioni ottimali per i modelli compatti.
Il rilascio di SmolLM rappresenta un passo significativo verso l’accessibilità e la privacy nell’intelligenza artificiale. Questi modelli consentono l’esecuzione su dispositivi personali come telefoni e laptop, eliminando la necessità di cloud computing e riducendo le preoccupazioni sulla privacy e i costi.
Leandro von Werra, Research Team Lead presso Hugging Face, ha sottolineato che SmolLM apre nuove possibilità sia per gli sviluppatori che per gli utenti finali, permettendo applicazioni AI personalizzate senza l’uso di costose GPU o infrastrutture cloud.
Lo sviluppo di modelli potenti ed efficienti come SmolLM rappresenta un cambio importante nell’AI, rendendo avanzate capacità AI più accessibili e rispettose della privacy. Hugging Face invita la comunità globale degli sviluppatori di IA a esplorare e migliorare su questo nuovo approccio ai modelli linguistici.