Arcee.ai, una startup focalizzata sullo sviluppo di modelli AI di piccole dimensioni per uso commerciale e aziendale, ha recentemente rilasciato il suo modello AFM-4.5B. Questo modello, con 4,5 miliardi di parametri, è progettato per offrire un equilibrio tra prestazioni elevate e requisiti normativi stringenti, rendendolo ideale per le imprese che necessitano di soluzioni AI scalabili e sicure.
AFM-4.5B è stato sviluppato tenendo conto delle sfide specifiche che le aziende affrontano nell’adozione dell’AI generativa: costi elevati, scarsa personalizzazione e preoccupazioni normative riguardo ai modelli linguistici di grandi dimensioni (LLM). Secondo Arcee, molte imprese hanno trovato i modelli LLM tradizionali troppo costosi e difficili da adattare alle esigenze specifiche del settore. D’altra parte, modelli open-source più piccoli, come Llama e Mistral, offrono maggiore flessibilità ma sollevano preoccupazioni riguardo alla licenza, alla provenienza dei dati e ai rischi geopolitici. AFM-4.5B si propone come una soluzione che combina personalizzazione, conformità e costi contenuti senza sacrificare la qualità del modello o la facilità d’uso.
Il modello AFM-4.5B utilizza un’architettura transformer solo decoder con diverse ottimizzazioni per le prestazioni e la flessibilità di distribuzione. Incorporando tecniche come l’attenzione a query raggruppate per un’inferenza più rapida e attivazioni ReLU² al posto di SwiGLU per supportare la sparsiticità senza compromettere l’accuratezza, AFM-4.5B è progettato per essere efficiente e versatile. Il processo di addestramento è stato suddiviso in tre fasi: pre-addestramento su 6,5 trilioni di token di dati generali, addestramento intermedio su 1,5 trilioni di token focalizzati su matematica e codice, e fine-tuning con apprendimento rinforzato basato su feedback verificabili e preferenze. Per soddisfare rigorosi standard di conformità e proprietà intellettuale, il modello è stato addestrato su quasi 7 trilioni di token di dati accuratamente selezionati per pulizia e sicurezza della licenza.
Nonostante le sue dimensioni contenute, AFM-4.5B offre prestazioni competitive su una vasta gamma di benchmark. La versione ottimizzata per le istruzioni ha ottenuto una media di 50,13 su suite di valutazione come MMLU, MixEval, TriviaQA e Agieval, superando o eguagliando modelli di dimensioni simili come Gemma-3 4B-it, Qwen3-4B e SmolLM3-3B. I test multilingue mostrano che il modello offre prestazioni solide in oltre 10 lingue, tra cui arabo, mandarino, tedesco e portoghese. Secondo Arcee, l’aggiunta di supporto per ulteriori dialetti è semplice grazie alla sua architettura modulare.
AFM-4.5B ha anche mostrato una forte trazione iniziale in ambienti di valutazione pubblici. In una classifica che valuta la qualità dei modelli conversazionali in base ai voti degli utenti e al tasso di vittorie, il modello si è classificato terzo in assoluto, preceduto solo da Claude Opus 4 e Gemini 2.5 Pro. Vanta un tasso di vittorie del 59,2% e la latenza più veloce di qualsiasi modello di punta a 0,2 secondi, abbinata a una velocità di generazione di 179 token al secondo.
Oltre alle capacità generali, AFM-4.5B offre supporto integrato per la chiamata di funzioni e il ragionamento agentico. Queste funzionalità mirano a semplificare il processo di creazione di agenti AI e strumenti di automazione dei flussi di lavoro, riducendo la necessità di una complessa ingegneria dei prompt o di strati di orchestrazione. Questa funzionalità si allinea con la strategia più ampia di Arcee di consentire alle imprese di costruire modelli personalizzati e pronti per la produzione più rapidamente, con un costo totale di proprietà (TCO) inferiore e un’integrazione più semplice nelle operazioni aziendali.
La strategia più ampia di Arcee.ai si concentra sulla costruzione di modelli linguistici di piccole dimensioni (SLM) adattabili al dominio che possono alimentare molti casi d’uso all’interno della stessa organizzazione. Come ha spiegato il CEO Mark McQuade in un’intervista con VentureBeat lo scorso anno, “Non è necessario andare così grandi per i casi d’uso aziendali”. L’azienda enfatizza l’iterazione rapida e la personalizzazione del modello come elementi centrali della sua offerta. Questa visione ha ottenuto il sostegno degli investitori con un round di finanziamento di Serie A da 24 milioni di dollari nel 2024.