SambaNova Systems ha annunciato oggi il lancio di Samba-1, un large Language Model (LLM) con un trilione di parametri, che potrebbe essere uno dei più grandi mai rilasciati. Tuttavia, a differenza di modelli come GPT-4 di OpenAI, Samba-1 non è un singolo modello, ma piuttosto una combinazione di oltre 50 modelli IA di alta qualità. Questi modelli sono stati uniti in un’architettura chiamata “composizione di esperti” da SambaNova.
Secondo Rodrigo Liang, co-fondatore e CEO di SambaNova, l’azienda si concentra principalmente sull’hardware, con il chip AI SN40L annunciato a settembre che mira a competere con Nvidia. Samba-1 sarà parte della Suite SambaNova, consentendo alle organizzazioni di personalizzare e distribuire i modelli senza dover fare la messa a punto dell’hardware.
Samba-1 è composto da più di 50 modelli IA addestrati e ottimizzati per lavorare insieme, tra cui modelli di SambaNova e modelli open source. Liang ha sottolineato che questi modelli possono interagire tra loro dinamicamente, offrendo maggiore flessibilità rispetto a metodi come LangChain, che richiedono una catena di modelli predeterminata.
Liang ha spiegato che la composizione di esperti è diversa dalla miscela di esperti utilizzata in alcuni LLM come Mistral. Con una composizione di esperti, ogni modello esperto è addestrato separatamente sui propri dati sicuri, garantendo la sicurezza e la privacy dei dati di training. Questo approccio consente alle organizzazioni di personalizzare i modelli per le proprie esigenze.
Anche se Samba-1 offre trilioni di parametri, Liang ha evidenziato che non è necessariamente ciò che tutte le organizzazioni vogliono o devono implementare. Utilizzando più modelli specializzati anziché un unico modello di grandi dimensioni, Samba-1 può offrire ampie capacità con elevata efficienza.
L’approccio di SambaNova consente ai clienti di addestrare e distribuire modelli personalizzati sui propri dati privati, consentendo loro di creare asset proprietari ottimizzati per le loro esigenze aziendali.