Meta ha intrapreso il percorso dell’open source per gran parte delle sue creazioni, una mossa che indubbiamente ha favorito l’azienda. Fin dall’uscita di LLaMA, Meta si è presentata come un’ardente sostenitrice dell’open source. Con l’introduzione di Llama 2 e Code Llama, l’azienda ha ricevuto lodi entusiastiche dall’ecosistema degli sviluppatori. Tuttavia, è notevole come Meta sembri preoccuparsi principalmente di accumulare elogi.
Recentemente, Jason Wei di OpenAI ha condiviso su X con un account alternativo quanto ha “sentito casualmente a un evento sociale di Meta GenAI”. Secondo lui, l’azienda sta pianificando di sviluppare Llama 3 e 4, previsti come ulteriormente potenti rispetto a GPT-4. La domanda “Wow, se Llama-3 è paragonabile a GPT-4, lo rilascereste ancora come open source?” ha sollevato un dibattito. La risposta del rappresentante di Meta AI è stata affermativa, aggiungendo: “Mi dispiace, gente dell’allineamento”.
Questo episodio getta luce sui sistemi chiusi che molte organizzazioni, tra cui OpenAI e Google, hanno implementato per garantire un migliore allineamento. Comunque sia, l’approccio di Meta di rendere open source una delle tecnologie ritenute tra le più “disruptive” della storia, come la definiscono molti, suscita qualche preoccupazione.
La figura di Sam Altman è stata oggetto di molte domande riguardo al “kill switch” che dice di portare sempre con sé nella sua borsa blu per fermare i sistemi di OpenAI in caso di deviazioni. In una recente intervista, ha risposto ridendo che era solo una battuta. Tuttavia, questa risposta non scaccia completamente la paura che l’intelligenza artificiale possa sfuggire al controllo.
Con i sistemi di intelligenza artificiale che migliorano costantemente, la discussione sulla potenziale ribellione di un sistema OpenAI è passata in secondo piano. Al centro dell’attenzione sono ora i modelli open source. Meta sta pianificando di rilasciare un modello equivalente a GPT-5 come open source. Questo significa che non ci sarebbe alcun “kill switch” associato, permettendo a chiunque, anche a soggetti malintenzionati, di utilizzare un modello open source come arma senza possibilità di disattivazione.
Inoltre, tutti gli sforzi sulla sicurezza dell’IA potrebbero diventare inutili. Le aziende che hanno lavorato per rendere l’IA allineata, onesta ed etica non avrebbero più controllo sulle conseguenze. Tutti potrebbero adattare i modelli open source a loro piacimento. Questa situazione potrebbe rivelarsi più pericolosa del semplice condividere dati con OpenAI tramite ChatGPT.
L’impegno di Meta per l’open source non sembra solidamente fondato sulle sue convinzioni. Non vi sono prove che l’azienda volesse originariamente rendere open source LLaMA; ciò è accaduto solo quando il modello è stato divulgato e ha suscitato entusiasmo tra gli sviluppatori.
Yann LeCun, il capo di Meta AI, ha condiviso su X che “Quando i sistemi di intelligenza artificiale diventano più intelligenti degli umani, gli umani rimarranno comunque la specie dominante”. I pessimisti dell’IA non sono concordi con questa affermazione. Tuttavia, anche se gli umani resteranno in cima alla catena alimentare, una cosa è certa: il GPT di OpenAI continuerà a detenere il ruolo di “modello al vertice” per un periodo significativo. E OpenAI è consapevole di ciò.
L’entusiasmo attorno ai modelli open source che superano quelli chiusi sarebbe ininfluente se questi modelli non venissero confrontati con GPT-3 e GPT-4.
Ogni modello nell’ecosistema open source viene giudicato in base alle capacità di GPT e al benchmark HumanEval, sviluppato dalla stessa OpenAI. È probabile che i modelli open source non desterebbero particolare interesse se non fossero paragonati a GPT-3 e GPT-4 in termini di prestazioni.
Aggiungiamoci il fatto che OpenAI, insieme a Anthropic, Google e Microsoft, ha lanciato Frontier Model Forum per garantire uno sviluppo sicuro e responsabile dei modelli di intelligenza artificiale. Pertanto, se Llama e altri modelli dovessero sfuggire al controllo in futuro, potrebbero essere rimossi da Hugging Face e GitHub in un attimo.
Lo scorso maggio, Meta non è stata invitata alla Casa Bianca per la discussione sull’intelligenza artificiale, né fa parte di questo forum. L’azienda sembra essere stata lasciata indietro, forse volontariamente, e sta cercando di creare la sua lega open source. Tuttavia, questa lega sembra ancora essere sotto il controllo di OpenAI e altri. Quindi, l’aspirazione di Meta di diventare il “buono” dell’intelligenza artificiale attraverso la comunità open source potrebbe avere un’effimera durata.