Snowflake lancia Arctic: un Large Language Model (LLM) ottimizzato per carichi di lavoro aziendali complessi come la generazione di SQL, la generazione di codice e il seguito di istruzioni. Presentato come il “LLM di livello aziendale più aperto” sul mercato, Arctic sfrutta una miscela unica di architettura Expert (MoE) per ottenere prestazioni di alto livello mentre rimane efficiente. Il CEO di Snowflake, Sridhar Ramaswamy, ha sottolineato l’importanza di questa innovazione, affermando che Snowflake sta ampliando le frontiere dell’intelligenza artificiale open source per offrire ai clienti un’intelligenza artificiale affidabile ed efficiente.

L’annuncio di Arctic rappresenta anche uno sforzo da parte di Snowflake per rimanere competitivo con Databricks, un concorrente noto per i suoi sforzi nel campo dell’intelligenza artificiale. Arctic è progettato per soddisfare le esigenze aziendali, consentendo ai team di concentrarsi su conversazioni significative anziché su operazioni meccaniche. Utilizzando un’architettura ibrida Dense MoE, Arctic ottiene risultati mirati con un consumo minimo di elaborazione.

Secondo i benchmark condivisi da Snowflake, Arctic si comporta bene in una serie di attività aziendali, superando spesso i concorrenti in test di generazione SQL e codifica. Inoltre, il modello dimostra di seguire istruzioni con un livello di intelligenza aziendale notevole, ottenendo punteggi competitivi con un budget di calcolo significativamente inferiore rispetto ad altri modelli aperti. La disponibilità di Arctic su piattaforme come Hugging Face e Cortex di Snowflake promette di rendere questa potente risorsa accessibile a una vasta gamma di utenti, contribuendo così alla democratizzazione dell’intelligenza artificiale aziendale.

Di Fantasy