Riflettendo sulla storia di Meta, Ahmed Al-Dahle, Vicepresidente di Meta per l’IA generativa, afferma: “Nel corso della sua storia, Meta è stata un forte sostenitore dell’open source.”

Inaspettatamente, l’azienda di intelligenza artificiale è diventata il paladino della comunità open source a partire dal momento in cui il suo modello linguistico LLaMA è stato involontariamente diffuso su 4Chan all’inizio di quest’anno. Molti avevano temuto che questa fuoriuscita di informazioni avrebbe comportato conseguenze negative, incolpando Meta per aver condiviso la tecnologia troppo liberamente. Tuttavia, la realtà è stata diversa: dopo che sviluppatori e ricercatori hanno ottenuto accesso al loro primo modello di fondazione realmente potente, il panorama ha fatto progressi notevoli.

A maggio, è emerso un promemoria anonimo (apparentemente proveniente da un ricercatore di Google) che discuteva di come il software open source stesse gradualmente guadagnando terreno rispetto alle grandi aziende tecnologiche. Il promemoria affrontava specificamente la sfida che Google avrebbe dovuto affrontare nel confronto tra il suo modello LLM e il potere dell’open source. Si sosteneva che mentre i leader delle aziende tecnologiche si preoccupavano della minaccia competitiva rappresentata dalla tecnologia di generazione del testo di OpenAI, nell’ombra l’open source stava lentamente emergendo come protagonista grazie a LLaMA, il suo concorrente di spicco.

“Improvvisamente, chiunque poteva sperimentare”, affermava il documento trapelato. Nel febbraio 2023, LLaMA era inizialmente accessibile solo su invito per i ricercatori, ma in meno di due settimane è fuoriuscito e ha rapidamente conquistato programmatori che lo hanno adattato e sviluppato ulteriormente. Nel giro di poche settimane dal suo debutto, varianti come Alpaca e Vicuna-13B di Stanford hanno fatto la loro comparsa online. Pur essendo quasi altrettanto validi del modello OpenAI, erano sufficientemente flessibili da poter essere personalizzati su computer comuni.

Nell’arco di tutto il mese di marzo, il modello ha guadagnato titoli dai commenti “abbastanza veloce da essere pratico” a un fondamentale pilastro dell’ecosistema GPT, noto come GPT4ALL. Una ragione chiave di questa popolarità è stata la sua formazione, che richiedeva solo qualche centinaio di dollari rispetto ai milioni spesi abitualmente per i modelli linguistici.

Avanzando fino a luglio, Meta ha finalmente lanciato LLaMA 2, molto atteso. La svolta principale portata da LLaMA 2 è stata quella di superare il solito compromesso tra sicurezza e utilità, raggiungendo performance superiori su entrambi i fronti.

Inoltre, il modello ha dimostrato che il feedback funziona meglio con gli LLM rispetto ai dati supervisionati, precedentemente considerati il gold standard. LLaMA 2 di Meta è stato addestrato utilizzando il 40% in più di dati rispetto all’originale, e un chatbot basato su questo modello è in grado di produrre risultati paragonabili a quelli di ChatGPT di OpenAI, secondo quanto affermato da Meta.

Sebbene il modello v1 fosse stato elogiato, aveva suscitato preoccupazioni legali per quanto riguardava il suo utilizzo commerciale. Analogamente, LLaMA v2 ha trasformato Meta in un pioniere dell’IA open source. Non tutti gli aspetti del suo lancio possono essere definiti completamente “aperti”, poiché la natura del modello non è esattamente “open source”, ma piuttosto “innovazione aperta”. Questa azienda, precedentemente criticata per le sue strategie nell’ambito dell’intelligenza artificiale, si è ora trasformata in uno dei principali contributori, superando persino aziende il cui nome implica l’apertura.

I dati utilizzati per addestrare il modello vengono descritti nei materiali di rilascio come “fonti online pubblicamente disponibili”, ma i dettagli sulla creazione del modello non sono stati ulteriormente divulgati. Inoltre, la licenza della seconda iterazione richiede alle aziende con oltre 700 milioni di utenti attivi mensili di stipulare un accordo separato con Meta. Sebbene la ragione di questa clausola non sia chiara, essa rappresenta una barriera per altre grandi aziende tecnologiche interessate a utilizzare il sistema.

Inoltre, Meta non offre solamente LLaMA 2, ma gode del supporto di importanti partner che stanno già offrendo il modello ai propri clienti. La startup Hugging Face, nota per il suo software di apprendimento automatico open source, ospita i modelli LLaMA 2 di Meta. Inoltre, LLaMA 2 è disponibile anche sulla piattaforma WatsonX di IBM, rendendo l’adozione più economica. Gli sviluppatori ora possono addestrare un LLM da 70 miliardi di parametri su una singola GPU, una prospettiva inimmaginabile solo pochi mesi fa.

Persino Amazon Web Services (AWS) offre l’accesso a LLaMA 2, mentre Microsoft, il principale finanziatore di OpenAI, rende disponibile il download di LLaMA per programmatori singoli, sia per l’utilizzo in cloud che su PC. Meta ha anche collaborato con Databricks, un fornitore di software, e OctoML, una startup specializzata nell’ottimizzazione dell’intelligenza artificiale, al fine di agevolare le imprese aziendali nell’uso dei propri dati proprietari tramite LLaMA 2.

Un recente studio intitolato “Sfide e Applicazioni di Modelli di Linguaggio su Larga Scala” evidenzia come il divario di capacità tra modelli closed-source e open-source sia in diminuzione. Con LLaMA 2, il divario si restringe ulteriormente, consentendo alla comunità di sviluppatori di competere alla pari con i modelli GPT di OpenAI. In definitiva, mentre gli LLM e le grandi aziende tecnologiche continuano a far parlare di sé per ragioni positive e negative, l’orientamento verso modelli open source sembra essere la strada giusta sia per le aziende che per i singoli programmatori.

Di Fantasy