Apple ha appena annunciato il suo ingresso nell’ambito dell’intelligenza artificiale generativa con OpenELM, una nuova famiglia di modelli LLM (Large Language Model) open source progettati per funzionare interamente su dispositivi locali anziché dipendere dai server cloud.
Rilasciato sulla community di codice AI Hugging Face, OpenELM comprende otto modelli progettati per eseguire in modo efficiente compiti di generazione di testo. Questi modelli variano in dimensioni, con parametri compresi tra 270 milioni e 3 miliardi.
L’obiettivo della pre-formazione è garantire che il modello produca testo coerente e utile, mentre l’ottimizzazione delle istruzioni mira a far sì che risponda in modo più pertinente alle richieste degli utenti. Ad esempio, l’ottimizzazione potrebbe far sì che il modello fornisca istruzioni dettagliate anziché completare semplicemente il testo.
Apple fornisce questi modelli con una licenza di codice campione che permette l’uso commerciale e la modifica, ma richiede che l’avviso e le esclusioni di responsabilità siano mantenuti nelle ridistribuzioni.
Sebbene sia ancora presto per testare pubblicamente OpenELM, l’interesse è alto e la comunità di ricerca aperta è entusiasta di questo passo di Apple nell’open source. Sulla carta, i modelli sembrano promettenti, ma saranno soggetti a valutazioni e miglioramenti nel tempo.