La recente uscita di LLaMA 2 di Meta con licenza commerciale ha sicuramente rappresentato un importante lancio nel campo dei microfoni AI open source. Tuttavia, negli ultimi due giorni, la startup Together ha fatto grandi progressi. Conosciuta per aver creato il set di dati RedPajama lo scorso aprile, che ha replicato il set di dati LLaMA, Together ha annunciato due importanti novità. Innanzitutto, ha rilasciato una nuova piattaforma full-stack e un servizio cloud che permette agli sviluppatori di startup e imprese di costruire un’intelligenza artificiale open source. Questo rappresenta una sfida per OpenAI nel momento in cui mira ad attirare gli sviluppatori. L’azienda, che già supporta oltre 50 dei migliori modelli di intelligenza artificiale open source, supporterà anche LLaMA 2.
Fondata l’anno scorso da Vipul Ved Prakash, Ce Zhang, Chris Ré e Percy Liang, Together si pone l’obiettivo di rendere i modelli di intelligenza artificiale più aperti e accessibili in un mercato attualmente dominato dai colossi della Big Tech. La startup con sede a Menlo Park, in California, ha annunciato a maggio di aver raccolto 20 milioni di dollari in un round di finanziamento iniziale per sviluppare un’IA generativa open source e una piattaforma cloud.
Venerdì scorso, l’azienda ha lanciato Together API e Together Compute, due servizi cloud che consentono di addestrare, perfezionare ed eseguire i principali modelli di intelligenza artificiale open source al mondo. Together API sfrutta un efficiente sistema di addestramento distribuito per ottimizzare i grandi modelli di intelligenza artificiale, offrendo endpoint API privati ottimizzati per l’inferenza a bassa latenza. Per i gruppi di ricerca AI/ML che desiderano pre-addestrare i propri modelli utilizzando i propri set di dati, Together Compute offre cluster di GPU di fascia alta abbinati allo stack di addestramento distribuito di Together. Ciò si traduce in un’efficienza dei costi notevolmente migliorata.
Oltre alle novità sulla piattaforma, Together ha annunciato questa settimana l’arrivo del nuovo capo scienziato, Tri Dao, che ha recentemente conseguito un dottorato in informatica presso Stanford ed è anche assistente professore presso la Princeton University. Dao è particolarmente noto per la sua innovativa ricerca su FlashAttention, che migliora l’addestramento e l’inferenza LLM e viene ampiamente utilizzata da tutti i modelli basati su Transformer. Ora è disponibile FlashAttention-2, che accelera l’addestramento e la messa a punto dei modelli LLM fino a 4 volte e raggiunge il 72% di utilizzo dei FLOP del modello durante l’addestramento su Nvidia A100.
Inoltre, questa settimana Together ha annunciato una partnership con Snorkel AI per consentire alle organizzazioni di creare modelli LLM personalizzati utilizzando i propri dati all’interno di ambienti sicuri. La soluzione di sviluppo AI end-to-end include lo sviluppo dei dati, l’addestramento dei modelli, la messa a punto e l’implementazione.