Le aziende stanno diventando sempre più fiduciose riguardo alle applicazioni agentiche che possono comprendere le istruzioni e gli intenti degli utenti per svolgere diverse attività nei contesti digitali. Questo rappresenta una nuova fase nell’evoluzione dell’intelligenza artificiale generativa. Tuttavia, molte organizzazioni si trovano ancora a fronteggiare problemi di bassa efficienza nei loro modelli.
In questo scenario, Katanemo, una startup specializzata in infrastrutture intelligenti per applicazioni AI, ha fatto un importante passo avanti rendendo open source Arch-Function. Questa raccolta di modelli di linguaggio di grandi dimensioni (LLM) promette prestazioni ultraveloce nelle operazioni critiche necessarie per i flussi di lavoro agentici.
Salman Paracha, fondatore e CEO di Katanemo, afferma che i nuovi modelli sono quasi 12 volte più veloci rispetto a GPT-4 di OpenAI e superano le offerte di Anthropic, tutto mentre garantiscono significativi risparmi sui costi. Questa innovazione potrebbe portare a agenti altamente reattivi in grado di gestire casi d’uso specifici senza gravare sul budget delle aziende. Secondo Gartner, entro il 2028, il 33% degli strumenti software aziendali utilizzerà intelligenza artificiale agentica, permettendo una maggiore automazione nelle decisioni quotidiane.
Una settimana fa, Katanemo ha reso open source Arch, un gateway di prompt intelligente che utilizza LLM specializzati per gestire attività critiche di elaborazione dei prompt, come il rilevamento di tentativi di jailbreak e l’interazione con API di backend. Questo consente agli sviluppatori di creare applicazioni di intelligenza artificiale generativa rapide, sicure e scalabili. L’azienda ha anche reso disponibile una parte dell’intelligenza dietro il gateway sotto forma di Arch-Function LLM, progettati per gestire chiamate di funzione e interagire con sistemi esterni.
I modelli Arch-Function possono comprendere firmine di funzioni complesse, identificare i parametri richiesti e produrre output accurati per le chiamate di funzione, facilitando l’esecuzione di attività come interazioni API o flussi di lavoro backend automatizzati.
Anche se la capacità di chiamata di funzione non è nuova, la vera innovazione degli LLM Arch-Function risiede nell’efficienza con cui vengono gestiti. Paracha ha condiviso dettagli su come questi modelli superino quelli di OpenAI e Anthropic in termini di qualità, offrendo al contempo notevoli vantaggi in velocità e costi. Per esempio, Arch-Function-3B migliora la produttività di circa 12 volte rispetto a GPT-4, con un risparmio sui costi di 44 volte.
Katanemo sta attualmente lavorando per condividere casi studio sull’utilizzo di questi modelli. Tuttavia, le elevate prestazioni e i costi contenuti rappresentano una combinazione ideale per applicazioni in tempo reale, come l’ottimizzazione delle campagne o l’invio di comunicazioni ai clienti.
Secondo Markets and Markets, il mercato globale degli agenti di intelligenza artificiale è destinato a crescere a un tasso annuo composto (CAGR) di quasi il 45%, raggiungendo un valore di 47 miliardi di dollari entro il 2030.