Tiny Army di OpenAI vs Dream Team di Meta-Google, chi ha di più nell’arsenale?
Con una forza lavoro snella di circa 375 persone, OpenAI con sede a San Francisco ha raggiunto un record impressionante di scoperte e progressi nel campo dell’IA, soprattutto negli ultimi due anni. Il capo Sam Altman si è recentemente rivolto a Twitter per applaudire e “non vantarsi” della densità di talenti dell’azienda. La capacità dell’azienda supportata da Microsoft di produrre risultati così significativi con un team relativamente piccolo è una testimonianza del potere del suo approccio innovativo e della sua ricerca all’avanguardia.
Piccola squadra, grande impatto
OpenAI ha dato al mondo ChatGPT , GPT-3.5, DALL-E, Codex e MuseNet, tra gli altri. Inoltre, il laboratorio di ricerca sull’intelligenza artificiale ha pubblicato 13 pubblicazioni di ricerca nel 2022 , seguite da nove nel 2021 .
OpenAI sa canalizzare tutto il potenziale dei propri dipendenti verso un obiettivo comune. Questo, per inciso, può essere rintracciato nella cultura aziendale, che dà priorità al lavoro di squadra e all’impatto, promuovendo un ambiente in cui i dipendenti sono incoraggiati ad assumersi rischi creativi nel perseguimento dei progressi nell’IA. L’organizzazione pone una forte enfasi sulla collaborazione e sulla comunicazione aperta, promuovendo la diversità e l’inclusività tra la sua forza lavoro.
Ricerca approfondita, basso rumore
Al contrario, DeepMind di Google ha oltre 1.000 dipendenti , quasi il triplo di OpenAI. Mentre il primo è principalmente orientato alla ricerca, il secondo si concentra sulla ricerca e sul portare i suoi prodotti nella produzione più velocemente e monetizzabili. Date le dimensioni del team, DeepMind ha prodotto 30 volte più documenti di ricerca negli ultimi tre anni con una maggiore diversità rispetto a OpenAI.
DeepMind è diventato famoso con il programma di gioco AI AlphaGo che ha sconfitto Lee Sedol, uno dei migliori giocatori di Go al mondo. Ha anche approfondito lo spazio della salute e delle scienze della vita con progetti come il modello di previsione proteica 3D AlphaFold .
Tuttavia, DeepMind non dispone di un’API pubblicamente disponibile per uso generale. È noto che forma partnership con aziende e organizzazioni per consentire l’accesso ai suoi algoritmi tramite API o altri mezzi, in genere per casi d’uso specifici e limitati o ristretti. Ad esempio, nel 2019, DeepMind ha annunciato una partnership con Google Cloud per rendere disponibili alcuni dei suoi modelli di intelligenza artificiale sulla piattaforma Google Cloud. Questi modelli sono disponibili tramite un’API e sono destinati all’uso nella ricerca sanitaria e nelle scienze della vita.
AlphaFold 2 e altre alternative utilizzano allineamenti di sequenze multiple (MSA) e modelli di proteine simili per ottenere prestazioni ottimali o un successo rivoluzionario nella previsione della struttura a risoluzione atomica. Tuttavia, ESMFold genera la previsione della struttura utilizzando solo una sequenza come input sfruttando le rappresentazioni interne del modello linguistico. Il lancio di questi modelli rivoluzionari ha dato a diversi sviluppatori la possibilità di realizzare le proprie opere. I ricercatori del MIT hanno utilizzato AlphaFold per vedere se i modelli di computer esistenti possono capire come funzionano i composti antibatterici.
D’altra parte, Meta AI ha introdotto “Galactica” , che purtroppo ha dovuto essere chiuso tre mesi dopo per motivi di sicurezza e precisione. Secondo Yann LeCun, capo di Meta AI, gli LLM sono affidabili come assistenti alla scrittura, ma non quando li usi come motori di ricerca per risolvere le query. RL mitiga solo gli errori senza risolvere il problema.
Alimentare le startup
Ma una cosa è certa, Google e Meta hanno contribuito avidamente alla comunità open source. Sono stati determinanti nell’aiutare a creare migliaia di startup tecnologiche basate sulla loro ricerca e tecnologie. Ad esempio, il chatbot di punta di OpenAI, ChatGPT, si basa ancora su Transformer, il documento “L’attenzione è tutto ciò di cui hai bisogno” che Google ha pubblicato sei anni fa.
La creazione di un documento di ricerca ad alto impatto è un delicato equilibrio tra innovazione e convalida. Richiede non solo un’idea nuova, ma anche la capacità di dimostrarne la validità attraverso una rigorosa sperimentazione, a fronte di numerosi fallimenti. Al contrario, lo sviluppo di un prodotto di successo dipende dalla competenza tecnica e dalla rilevanza del mercato, con un focus sull’adattamento del prodotto al mercato che ha la precedenza sull’innovazione tecnica.
Con prodotti come ChatGPT e altre offerte, OpenAI ha fatto passi da gigante nella navigazione nel complesso panorama dello sviluppo del prodotto. OpenAI, pubblicizzata come un’azienda non così aperta all’open source, genera profitti commercializzando i suoi modelli attraverso le sue API. Utilizza un sistema pay-per-use per le sue API, in cui gli sviluppatori devono acquistare token per utilizzare l’API.
È interessante notare che molti dipendenti hanno lasciato OpenAI per fondare le proprie aziende. Un primo esempio di ciò è Anthropic , che ha acquisito oltre 700 milioni di dollari di investimenti fino ad oggi. Cofondato dall’ex dipendente di OpenAI Dario Amodei , Anthropic ha sviluppato un sistema di intelligenza artificiale chiamato Claude che è paragonabile a ChatGPT di OpenAI ma ne differisce in molti modi significativi.
I laboratori di intelligenza artificiale sono codipendenti
Mentre OpenAI guida il gruppo nella distribuzione dei prodotti, superando i contemporanei come DeepMind e Meta AI, questi ultimi hanno più contributi nel campo della ricerca, dando vita a diverse aziende, come OpenAI.
Nel mondo dell’IA, la collaborazione è fondamentale. Sia Microsoft che OpenAI lo riconoscono e hanno scelto di utilizzare PyTorch, mentre PyTorch a sua volta utilizza Triton di OpenAI. Tuttavia, nonostante i potenziali vantaggi della scienza aperta, l’approccio di OpenAI alla condivisione dei suoi algoritmi è restrittivo.
È necessaria una sana cooperazione per risolvere problemi più grandi. Anche i pezzi grossi dell’intelligenza artificiale concordano sul fatto che la collaborazione sia la chiave.
In un’interazione esclusiva con AIM , Yoshua Bengio , uno dei padri fondatori del Deep Learning, ha affermato che conoscere le reciproche intuizioni e sessioni di brainstorming con altri scienziati e con i suoi studenti è molto potente. “Se avessi fatto le mie cose da solo, non credo che avrei raggiunto quello che ho. Quindi, non è solo una cosa intellettuale, ma quando stiamo insieme cercando di capire o capire qualcosa, siamo motivati dall’energia degli altri. Vogliamo trovare soluzioni ai problemi. Soprattutto quando sei più giovane, tutti questi fattori sociali umani della collaborazione fanno davvero la differenza”, ha aggiunto.
Sebbene Sam Altman si chieda se i laboratori di intelligenza artificiale possano andare d’accordo, ma sfortunatamente OpenAI stesso non è compatibile con l’open source. OpenAI offre un accesso limitato o nullo ai suoi algoritmi e li distribuisce al pubblico sotto forma di API.
Ma a OpenAI interessa davvero?