Liquid AI, uno spin-off del MIT, ha appena lanciato la sua prima serie di Liquid Foundation Models (LFM). Questi nuovi modelli stabiliscono un importante punto di riferimento nell’ambito dell’intelligenza artificiale generativa, offrendo prestazioni superiori rispetto ai modelli attuali, inclusi quelli di ChatGPT.

Liquid AI è stata fondata da un gruppo di ricercatori del MIT, tra cui Ramin Hasani, Mathias Lechner, Alexander Amini e Daniela Rus. Con sede a Boston, l’azienda si dedica alla creazione di sistemi di intelligenza artificiale generali, efficienti e scalabili per aziende di tutte le dimensioni. Hanno sviluppato le reti neurali liquide, ispirate al funzionamento del cervello, e ora puntano ad ampliare le capacità dei sistemi di IA a tutti i livelli, dai dispositivi edge fino alle soluzioni aziendali.

Gli LFM rappresentano una nuova generazione di sistemi di intelligenza artificiale altamente efficienti in termini di memoria e potenza di calcolo. Sono progettati per elaborare vari tipi di dati sequenziali, come testo, video e audio, con grande precisione.

Liquid AI ha lanciato tre modelli principali:

  • LFM-1B: con 1,3 miliardi di parametri, è ottimizzato per ambienti a risorse limitate.
  • LFM-3B: conta 3,1 miliardi di parametri ed è ideale per applicazioni mobili.
  • LFM-40B: un modello Mixture of Experts (MoE) con 40,3 miliardi di parametri, adatto per compiti complessi.

Questi modelli hanno già ottenuto risultati eccellenti nei benchmark dell’intelligenza artificiale, rendendoli competitivi rispetto ai modelli di IA più noti.

Gli LFM si distinguono per le loro prestazioni in vari benchmark. Ad esempio:

  • LFM-1B: eccelle in test come MMLU e ARC-C.
  • LFM-3B: supera modelli più grandi come Phi-3.5 di Microsoft, rimanendo efficiente in termini di memoria.
  • LFM-40B: offre prestazioni paragonabili a modelli più grandi, con 12 miliardi di parametri attivi in ogni momento.

Una delle sfide dell’IA moderna è gestire la memoria e il calcolo, soprattutto per compiti che richiedono elaborazione di dati lunghi. Gli LFM affrontano questa sfida comprimendo i dati di input, riducendo così il consumo di memoria e permettendo l’elaborazione di sequenze più lunghe senza necessità di aggiornamenti hardware costosi. Ad esempio, l’LFM-3B può gestire contesti di 32.000 token, rendendolo molto efficace per applicazioni complesse.

Gli LFM utilizzano un’architettura unica che si discosta dai modelli tradizionali. Si basano su operatori lineari adattivi, ottimizzando così le prestazioni su diverse piattaforme hardware. Questa struttura innovativa migliora la capacità di elaborare dati e porta a risultati superiori in compiti complessi e multimodali.

Liquid AI ha grandi progetti per i suoi modelli, mirando a supportare dati video, audio e di serie temporali. Questo permetterà loro di espandersi in vari settori, come finanza, biotecnologia ed elettronica di consumo. Anche se i modelli non sono attualmente open source, Liquid AI prevede di condividere risultati di ricerca e metodi con la comunità scientifica per promuovere collaborazione e innovazione.

Liquid AI offre accesso anticipato ai suoi LFM tramite piattaforme come Liquid Playground, Lambda e Perplexity Labs. Le aziende interessate possono esplorare come integrare questi sistemi avanzati nelle loro operazioni. Liquid AI incoraggia i primi utilizzatori a condividere esperienze e feedback per migliorare ulteriormente i modelli.

Di Fantasy