DeepMind sta deliberatamente evitando l’IA generativa “superficiale”?
DeepMind aveva costruito modelli generativi come Gato e Flamingo, che rappresentavano un passo definitivo verso AGI
Quest’anno, l’ IA generativa ha mangiato la torta (e l’ha mangiata anche lei). La creatività, una volta ritenuta un bastione strettamente umano, è stata conquistata dall’intelligenza artificiale. DALL.E 2 di OpenAI è stato fondamentale per i generatori di testo in immagini, seguito da Stable Diffusion di Stability AI. L’inizio di dicembre è stato caratterizzato da ChatGPT , un chatbot di intelligenza artificiale generativa in grado di scrivere haiku e codice con facilità simile, sempre da OpenAI . Dire che l’IA generativa è la parola d’ordine, sarebbe un eufemismo.
Tuttavia, in mezzo a tutto questo frastuono, la sussidiaria AI di Google, DeepMind , è rimasta sospettosamente silenziosa sul fronte creativo. L’approccio utilitaristico di DeepMind
Questo non vuol dire che DeepMind non abbia fatto nulla per essere nelle notizie quest’anno. A ottobre, la società fondata da Demis Hassabis ha sviluppato AlphaTensor , il primo sistema di intelligenza artificiale in grado di scoprire nuovi algoritmi per svolgere compiti noiosi come la moltiplicazione di matrici. A luglio, DeepMind ha predetto la struttura di quasi tutti i ripiegamenti proteici esistenti, risolvendo una delle più grandi sfide della biologia in un arco di 18 mesi utilizzando un modello di intelligenza artificiale chiamato AlphaFold . Il modello ha già guidato lo sviluppo di farmaci per combattere la malaria, i rifiuti di plastica e gli antibiotici e può accelerare la scoperta di nuovi farmaci.
Un paio di settimane fa, la società ha rilasciato AlphaCode , una nuova intelligenza artificiale di codifica per competere con Codex di OpenAI . AlphaCode ha battuto circa il 50% dei programmatori umani al CodeContest, una competizione di programmazione altamente competitiva. Tutto questo è stato fatto anche se DeepMind è rimasto fedele alle sue radici di padroneggiare i giochi di strategia. A dicembre, DeepNash , un agente di intelligenza artificiale creato dall’azienda, ha imparato un classico gioco da tavolo chiamato Stratego, per giocarci come un essere umano. (Stratego è più complesso degli scacchi e del Go e richiede più abilità del poker).
Focus sull’AGI
L’assenza di DeepMind dalla sfera creativa potrebbe indicare che l’azienda non sottoscrive l’hype attorno a questi modelli generativi. Durante un vertice web tenutosi a Lisbona in ottobre, lo scettico del deep learning Gary Marcus e il teorico politico Noam Chomsky hanno discusso di come l’IA generativa possa essere del tutto “divertente” e potrebbe non portare all’AGI.
DeepMind, semmai, è rigoroso nel mantenere il suo obiettivo di lavorare per AGI . In un’intervista esclusiva con Analytics India Magazine , il capo della ricerca dell’azienda per l’intelligenza artificiale per la scienza e l’affidabilità, Pushmeet Kohli ha menzionato più volte la “dichiarazione di intenti” di DeepMind.
Kohli ha chiarito che DeepMind non era contrario all’IA generativa . “Abbiamo lavorato molto in questo settore. E infatti, abbiamo effettivamente pubblicato una serie di documenti di ricerca e stiamo spingendo i confini di ciò che è possibile. Quindi, anche con modelli come Flamingo , abbiamo apportato alcuni contributi scientifici molto importanti che non possono essere ignorati”, ha affermato.
Gato di DeepMind, un agente generalista AI
Kohli non aveva torto. DeepMind aveva costruito modelli generativi come Gato e Flamingo, che rappresentavano un passo definitivo verso AGI. Gato , lanciato a maggio, è un sistema “general-purpose” a cui è possibile insegnare a eseguire 604 attività, tra cui sottotitoli di immagini, giochi Atari, impilare blocchi con un braccio robotico e impegnarsi in una conversazione.
Flamingo, rilasciato a giugno, è stato addestrato su Chinchilla , un LLM da 80 miliardi di parametri. Il modello può chattare con gli utenti e rispondere a domande su immagini e video di input e ha superato tutti gli altri modelli di apprendimento a colpo singolo su una serie di 16 benchmark del linguaggio visivo. Ciò ha consentito a Flamingo di apprendere nuovi compiti visivi con pochi o nessun dato di addestramento aggiuntivo.
La sicurezza prima
Tuttavia, DeepMind era cauto nel produrre modelli che avrebbero potuto fare più rumore nella comunità a causa di minori tutele. Caso in questione, Galactica di Meta è stato ritirato tre giorni dopo il suo lancio o addirittura la guerra in corso tra artisti fisici e generatori di immagini AI che vengono addestrati sulle immagini da questi artisti.
Kohli ha spiegato questo principio di sicurezza al primo posto, affermando: “L’implementazione di modelli generativi comporta una serie di sfide e problemi di sicurezza. Ci sono grandi preoccupazioni su come verranno utilizzati questi modelli e l’output dei modelli. DeepMind ha sempre posto la sicurezza al centro dei propri requisiti. E così facciamo molte ricerche prima pensando alle implicazioni di facilitare la condivisione di qualcosa o distribuirlo nel resto del mondo.
“Direi che siamo probabilmente uno dei gruppi leader in questo settore, ma in termini di condivisione e implementazione di questi modelli, siamo stati più attenti. Stiamo lavorando molto sulla sicurezza e sulla protezione e per il dispiegamento responsabile di queste tecniche”, ha spiegato Kohli.
Questa idea è evidente nell’unico strumento rilasciato da DeepMind. Nella prima settimana di dicembre, la società ha creato Dramatron , uno strumento di “co-scrittura” basato sull’intelligenza artificiale per la scrittura di sceneggiature. Lo strumento può fornire descrizioni fittizie dei personaggi, punti della trama, dialoghi e descrizioni dei luoghi per aiutare gli scrittori reali a riscrivere, compilare e modificare dopo che Dramatron ha scritto una sceneggiatura completa. Dal punto di vista di DeepMind, la scrittura di sceneggiature per i film sembra il passo più sicuro nel parco giochi creativo dell’IA generativa in modo da evitare qualsiasi accusa di plagio o inesattezza.