Gato di DeepMind è il primo AGI al mondo?
 
L’intelligenza artificiale generale (AGI) è tornata alla ribalta grazie alla recente introduzione di Gato di DeepMind. Più che altro, AGI richiama le immagini di Skynet (della tradizione di Terminator) che era stato originariamente progettato come software di analisi delle minacce per i militari, ma è arrivato rapidamente a vedere l’umanità come il nemico. Anche se fittizio, questo dovrebbe farci riflettere, soprattutto perché le forze armate di tutto il mondo stanno perseguendo armi basate sull’intelligenza artificiale . 

Tuttavia, Gato non sembra sollevare nessuna di queste preoccupazioni. Il modello del trasformatore del deep learning è descritto come un “agente generalista” e pretende di eseguire 604 compiti distinti e per lo più banali con modalità, osservazioni e specifiche di azione variabili. È stato indicato come il coltellino svizzero dei modelli AI. È chiaramente molto più generale di altri sistemi di IA sviluppati finora ea tale riguardo sembra essere un passo verso l’ AGI .

 
Un agente generalista. Gato può percepire e agire con diverse forme di realizzazione in un’ampia gamma di ambienti utilizzando un’unica rete neurale con lo stesso insieme di pesi. Gato è stato formato su 604 compiti distinti con modalità, osservazioni e specifiche d’azione variabili. Fonte: DeepMind
Reti neurali multimodali
I sistemi multimodali non sono nuovi, come evidenziato da GPT-3 e altri. Ciò che è probabilmente nuovo è l’intento. In base alla progettazione, GPT-3 doveva essere un modello linguistico di grandi dimensioni per la generazione di testo. Il fatto che potesse anche produrre immagini da didascalie, generare codice di programmazione e altre funzioni erano vantaggi aggiuntivi emersi a posteriori e spesso con sorpresa degli esperti di intelligenza artificiale.

 
In confronto, Gato è progettato intenzionalmente per affrontare molte funzioni discrete. DeepMind spiega che, “La stessa rete con gli stessi pesi può riprodurre Atari, immagini didascalie, chat, impilare blocchi con un vero braccio robotico e molto altro, decidendo in base al suo contesto se emettere testo, coppie articolari, pressioni di pulsanti o altri token .”

Sebbene DeepMind affermi che Gato supera gli umani per molti di questi compiti, la prima iterazione produce risultati tutt’altro che impressionanti su diverse attività. Gli osservatori hanno notato che non esegue molti dei 604 compiti particolarmente bene, con un osservatore che lo ha riassunto come: “Un programma di intelligenza artificiale che fa un lavoro così così in molte cose”. 

Ma questo licenziamento non ha senso. Finora, c’è stata solo “IA stretta” o “IA debole”, definita come abile in un unico scopo dedicato, con “scopo unico” che significa un paio di cose:

Un algoritmo progettato per fare una cosa (diciamo, sviluppare ricette di birra ) non può essere utilizzato per nient’altro (giocare a un videogioco, per esempio).
Tutto ciò che un algoritmo “impara” non può essere effettivamente trasferito a un altro algoritmo progettato per soddisfare uno scopo specifico diverso.
Ad esempio, AlphaGo , la rete neurale anch’essa di DeepMind che ha superato il campione del mondo umano al gioco di Go, non può giocare ad altri giochi nonostante quei giochi siano molto più semplici e non possano soddisfare nessun’altra esigenza.

IA forte
L’altra estremità dello spettro dell’IA è considerata “IA forte” o, in alternativa, AGI. Si tratterebbe di un singolo sistema di intelligenza artificiale, o forse di un gruppo di sistemi collegati, che potrebbe essere applicato a qualsiasi attività o problema. A differenza degli algoritmi di AI ristretti, le conoscenze acquisite dall’IA generale possono essere condivise e conservate tra i componenti del sistema. 

 
In un modello di intelligenza artificiale generale, l’algoritmo che può battere i migliori al mondo su Go sarebbe in grado di imparare gli scacchi o qualsiasi altro gioco, oltre a svolgere attività aggiuntive. L’AGI è concepito come un sistema generalmente intelligente che può agire e pensare in modo molto simile agli esseri umani. Murray Shanahan, professore di robotica cognitiva all’Imperial College di Londra, ha affermato nel podcast di Exponential View che l’AGI è “in un certo senso intelligente come gli esseri umani e capace dello stesso livello di generalizzazione di cui sono capaci gli esseri umani e possiede il buon senso che gli umani hanno”.

Anche se, a differenza degli umani, funziona alla velocità dei sistemi informatici più veloci.

Una questione di scala
Nando de Freitas, un ricercatore di DeepMind, crede che Gato sia effettivamente una dimostrazione AGI , priva solo della sofisticatezza e della scala che possono essere raggiunte attraverso un ulteriore perfezionamento del modello e una potenza di calcolo aggiuntiva. La dimensione del modello Gato è relativamente piccola a 1,18 miliardi di parametri, essenzialmente una prova di concetto, lasciando molte prestazioni al rialzo con un ridimensionamento aggiuntivo.

 

Il ridimensionamento dei modelli di intelligenza artificiale richiede più dati e più potenza di calcolo per l’addestramento degli algoritmi. Siamo inondati di dati. L’anno scorso, la società di analisi del settore IDC ha dichiarato : “La quantità di dati digitali creata nei prossimi cinque anni sarà maggiore del doppio della quantità di dati creata dall’avvento dell’archiviazione digitale”. Inoltre, la potenza di calcolo è aumentata esponenzialmente per decenni. Sebbene ci siano prove, questo ritmo sta rallentando a causa dei vincoli sulle dimensioni fisiche dei semiconduttori.

Tuttavia, il Wall Street Journal osserva che i produttori di chip hanno spinto la busta tecnologica, trovando nuovi modi per aumentare la potenza di calcolo. Per lo più questo viene fatto attraverso una progettazione eterogenea , costruendo chip da un’ampia varietà di moduli specializzati. Questo approccio si sta rivelando efficace, almeno nel breve termine, e continuerà a guidare la scala del modello.

Geoffrey Hinton, un professore dell’Università di Toronto che è un pioniere del deep learning, ha parlato a Scale affermando che : “Ci sono un trilione di sinapsi in un centimetro cubo di cervello. Se esistesse una cosa come l’IA generale, [il sistema] richiederebbe probabilmente un trilione di sinapsi”.

Stanno emergendo modelli di intelligenza artificiale con oltre un trilione di parametri, l’equivalente della rete neurale delle sinapsi, con Google che ha sviluppato un modello da 1,6 trilioni di parametri. Tuttavia, questo non è un esempio di AGI. Il consenso di diversi  sondaggi di esperti di intelligenza artificiale suggerisce che l’AGI è ancora indietro di decenni. O la valutazione di Hinton è solo una parte del problema per AGI o le opinioni degli esperti sono prudenti.

Forse i meriti di scala vengono mostrati meglio con l’avanzamento da GPT-2 a GPT-3, dove la differenza era principalmente più dati, più parametri — da 1,5 miliardi con GPT-2 a 175 miliardi con GPT-3 — e più potenza di calcolo — es. , processori sempre più veloci, con alcuni progettati specificamente per la funzionalità AI. Quando è apparso GPT-3, Arram Sabeti, uno sviluppatore e artista con sede a San Francisco,  ha twittato “Giocare con GPT-3 è come vedere il futuro. Ce l’ho per scrivere canzoni, storie, comunicati stampa, tablature per chitarra, interviste, saggi, manuali tecnici. È incredibilmente buono”.  

Tuttavia, Gary Marcus, scettico sull’apprendimento profondo dell’IA, ritiene che “Ci sono gravi falle nell’argomento del ridimensionamento”. Afferma che il ridimensionamento delle misure che altri hanno esaminato, come la previsione della parola successiva in una frase, “non equivale al tipo di comprensione profonda che la vera AI [AGI] richiederebbe”. 

Yann LeCun , scienziato capo dell’IA presso il proprietario di Facebook Meta e un passato vincitore del Premio Turing per l’IA, ha dichiarato in un recente post sul blog dopo la pubblicazione di Gato che al momento non esiste AGI. Inoltre, non crede che l’aumento dei modelli raggiungerà questo livello, che richiederà nuovi concetti aggiuntivi. Anche se ammette che alcuni di questi concetti, come l’apprendimento auto-supervisionato generalizzato, “sono forse dietro l’angolo”.

Il professore assistente del MIT Jacob Andreas sostiene che Gato può fare molte cose contemporaneamente, ma non è lo stesso che essere in grado di adattarsi in modo significativo a nuovi compiti che sono diversi da quelli per cui è stato addestrato.

Anche se Gato potrebbe non essere un esempio di AGI, non si può negare che fornisce un passo significativo oltre l’IA ristretta. Fornisce un’ulteriore prova che stiamo entrando in una zona crepuscolare, un’area mal definita tra l’IA ristretta e generale . L’AGI, come discusso da Shanahan e altri, potrebbe essere ancora tra decenni nel futuro, anche se Gato potrebbe aver accelerato la sequenza temporale.

Di ihal