Quando avremo un’intelligenza artificiale generale, il tipo di intelligenza artificiale in grado di imitare la mente umana in tutti gli aspetti? Gli esperti sono divisi sull’argomento e le risposte variano da qualche decennio a mai.

Ma ciò su cui tutti sono d’accordo è che gli attuali sistemi di intelligenza artificiale sono molto lontani dall’intelligenza umana. Gli esseri umani possono esplorare il mondo, scoprire problemi irrisolti e pensare alle loro soluzioni. Nel frattempo, il toolbox AI continua a crescere con algoritmi in grado di eseguire attività specifiche ma non possono generalizzare le loro capacità oltre i loro ristretti domini. Abbiamo programmi che possono battere i campioni del mondo su StarCraft ma non possiamo giocare a un gioco leggermente diverso a livello amatoriale. Abbiamo reti neurali artificiali che possono trovare segni di cancro al seno nelle mammografie ma non sono in grado di distinguere tra un gatto e un cane. E abbiamo modelli linguistici complessi che possono girare migliaia di articoli apparentemente coerenti all’ora, ma iniziano a rompersi quando poni loro semplici domande logiche sul mondo.

In breve, ciascuna delle nostre tecniche di intelligenza artificiale riesce a replicare alcuni aspetti di ciò che sappiamo sull’intelligenza umana. Ma mettere tutto insieme e colmare le lacune rimane una sfida importante. Nel suo libro Algorithms Are Not Enough , il data scientist Herbert Roitblat fornisce una revisione approfondita dei diversi rami dell’IA e descrive perché ognuno di essi non riesce a realizzare il sogno di creare intelligenza generale.

Il difetto comune a tutti gli algoritmi di intelligenza artificiale è la necessità di rappresentazioni predefinite, afferma Roitblat. Una volta scoperto un problema e in grado di rappresentarlo in modo computabile, possiamo creare algoritmi di intelligenza artificiale in grado di risolverlo, spesso in modo più efficiente di noi stessi. Tuttavia, sono i problemi non scoperti e non rappresentabili che continuano a sfuggirci.

Rappresentazioni in AI simbolica
Nel corso della storia dell’intelligenza artificiale, gli scienziati hanno regolarmente inventato nuovi modi per sfruttare i progressi dei computer per risolvere i problemi in modi ingegnosi. I primi decenni di intelligenza artificiale si sono concentrati sui sistemi simbolici.

Questo ramo dell’IA presuppone che il pensiero umano sia basato sulla manipolazione dei simboli e qualsiasi sistema in grado di calcolare i simboli sia intelligente. L’IA simbolica richiede agli sviluppatori umani di specificare meticolosamente le regole, i fatti e le strutture che definiscono il comportamento di un programma per computer. I sistemi simbolici possono compiere imprese straordinarie, come memorizzare informazioni, calcolare formule matematiche complesse a velocità ultraveloci ed emulare processi decisionali esperti. I linguaggi di programmazione più diffusi e la maggior parte delle applicazioni che utilizziamo ogni giorno hanno le loro radici nel lavoro svolto sull’IA simbolica.

Ma l’intelligenza artificiale simbolica può risolvere solo problemi per i quali possiamo fornire soluzioni ben formate e passo dopo passo. Il problema è che la maggior parte dei compiti che gli esseri umani e gli animali svolgono non possono essere rappresentati in regole chiare.

“I compiti intellettuali, come giocare a scacchi, analisi della struttura chimica e calcolo, sono relativamente facili da eseguire con un computer. Molto più difficili sono i tipi di attività che anche un essere umano di un anno o un topo potrebbero svolgere “, scrive Roitblat in Algorithms Are Not Enough .

Questo si chiama paradosso di Moravec, dal nome dello scienziato Hans Moravec, il quale affermò che, a differenza degli umani, i computer possono svolgere compiti di ragionamento di alto livello con pochissimo sforzo, ma lottano per abilità semplici che gli esseri umani e gli animali acquisiscono naturalmente.

“Il cervello umano ha sviluppato meccanismi nel corso di milioni di anni che ci consentono di svolgere le funzioni sensomotorie di base. Prendiamo le palle, riconosciamo i volti, giudichiamo la distanza, tutto apparentemente senza sforzo ”, scrive Roitblat. “D’altra parte, le attività intellettuali sono uno sviluppo molto recente. Possiamo svolgere questi compiti con molto impegno e spesso molto addestramento, ma dovremmo essere sospettosi se pensiamo che queste capacità siano ciò che rende l’intelligenza, piuttosto che l’intelligenza rende possibili quelle capacità “.

Quindi, nonostante le sue notevoli capacità di ragionamento, l’IA simbolica è strettamente legata alle rappresentazioni fornite dagli esseri umani.

Rappresentazioni in machine learning
L’apprendimento automatico offre un approccio diverso all’intelligenza artificiale. Invece di scrivere regole esplicite, gli ingegneri “addestrano” i modelli di machine learning attraverso esempi. “I sistemi [di machine learning] non solo potevano fare ciò per cui erano stati specificatamente programmati, ma potevano estendere le loro capacità a eventi inediti, almeno quelli entro un certo intervallo”, scrive Roitblat in Algorithms Are Not Enough .

La forma più popolare di apprendimento automatico è l’apprendimento supervisionato, in cui un modello viene addestrato su una serie di dati di input (ad esempio, umidità e temperatura) e risultati attesi (ad esempio, probabilità di pioggia). Il modello di machine learning usa queste informazioni per ottimizzare un set di parametri che mappano gli input agli output. Quando viene presentato con input inediti, un modello di apprendimento automatico ben addestrato può prevedere il risultato con notevole precisione. Non c’è bisogno di regole esplicite se-allora.

Ma l’apprendimento automatico supervisionato si basa ancora su rappresentazioni fornite dall’intelligenza umana, anche se più sciolta dell’IA simbolica. Ecco come Roitblat descrive l’apprendimento supervisionato: “[M] achine learning implica una rappresentazione del problema che è impostato per risolvere come tre serie di numeri. Un insieme di numeri rappresenta gli input che il sistema riceve, un insieme di numeri rappresenta gli output che il sistema produce e il terzo insieme di numeri rappresenta il modello di machine learning “.

Pertanto, sebbene l’apprendimento automatico supervisionato non sia strettamente vincolato a regole come l’IA simbolica, richiede comunque rappresentazioni rigorose create dall’intelligenza umana. Gli operatori umani devono definire un problema specifico, curare un set di dati di formazione ed etichettare i risultati prima di poter creare un modello di apprendimento automatico. Solo quando il problema è stato rappresentato rigorosamente a modo suo, il modello può iniziare a regolare i suoi parametri.

“La rappresentazione è scelta dal progettista del sistema”, scrive Roitblat. “In molti modi, la rappresentazione è la parte più cruciale della progettazione di un sistema di apprendimento automatico.”

Un ramo dell’apprendimento automatico che è diventato popolare negli ultimi dieci anni è l’apprendimento profondo, che viene spesso paragonato al cervello umano. Al centro dell’apprendimento profondo c’è la rete neurale profonda, che impila strati su strati di semplici unità computazionali per creare modelli di apprendimento automatico in grado di eseguire compiti molto complicati come la classificazione di immagini o la trascrizione di audio.

Strati di una rete neurale per il deep learning
Sopra: i modelli di deep learning possono eseguire attività complicate come la classificazione delle immagini.

Credito immagine: libro di apprendimento approfondito
Ma ancora una volta, l’apprendimento profondo dipende in gran parte dall’architettura e dalla rappresentazione. La maggior parte dei modelli di deep learning necessita di dati etichettati e non esiste un’architettura di rete neurale universale in grado di risolvere ogni possibile problema. Un ingegnere di machine learning deve prima definire il problema che vuole risolvere, curare un ampio set di dati di formazione e quindi capire l’architettura di deep learning in grado di risolvere quel problema. Durante l’addestramento, il modello di deep learning regolerà milioni di parametri per mappare gli input agli output. Ma ha ancora bisogno di ingegneri di machine learning per decidere il numero e il tipo di livelli, la velocità di apprendimento, la funzione di ottimizzazione, la funzione di perdita e altri aspetti non apprendibili della rete neurale.

“Come gran parte dell’intelligenza artificiale, il vero genio [dell’apprendimento profondo] deriva dal modo in cui il sistema è progettato, non da un’intelligenza autonoma propria. Rappresentazioni intelligenti, inclusa l’architettura intelligente, creano un’intelligenza artificiale intelligente “, scrive Roitblat. “Le reti di apprendimento profondo sono spesso descritte come apprendenti delle proprie rappresentazioni, ma questo non è corretto. La struttura della rete determina quali rappresentazioni può derivare dai suoi input. Il modo in cui rappresenta gli input e il modo in cui rappresenta il processo di risoluzione dei problemi sono determinati tanto per una rete di apprendimento profondo quanto per qualsiasi altro sistema di apprendimento automatico “.

Altri rami del machine learning seguono la stessa regola. L’apprendimento senza supervisione, ad esempio, non richiede esempi etichettati. Ma richiede ancora un obiettivo ben definito come il rilevamento delle anomalie nella sicurezza informatica, la segmentazione dei clienti nel marketing, la riduzione della dimensionalità o le rappresentazioni incorporate.

L’apprendimento per rinforzo, un altro ramo popolare dell’apprendimento automatico, è molto simile ad alcuni aspetti dell’intelligenza umana e animale. L’agente AI non si basa su esempi etichettati per la formazione. Invece, gli viene fornito un ambiente (ad esempio, una scacchiera o una tavola da gioco) e una serie di azioni che può eseguire (ad esempio, spostare pezzi, posizionare pietre). Ad ogni passaggio, l’agente esegue un’azione e riceve feedback dal suo ambiente sotto forma di premi e penalità. Attraverso tentativi ed errori, l’agente di apprendimento per rinforzo trova sequenze di azioni che producono più ricompense.

L’informatico Richard Sutton descrive l’apprendimento per rinforzo come “la prima teoria computazionale dell’intelligenza”. Negli ultimi anni, è diventato molto popolare per la risoluzione di problemi complicati come la padronanza del computer e dei giochi da tavolo e lo sviluppo di braccia e mani robotiche versatili.

Screengrab di StarCraft, Cubo di Rubik, Go e DOTA
Sopra: l’apprendimento per rinforzo può risolvere problemi complicati come il gioco da tavolo e i videogiochi e l’esecuzione di manipolazioni robotiche.

Credito immagine: Tech Talks
Ma gli ambienti di apprendimento per rinforzo sono in genere molto complessi e il numero di azioni possibili che un agente può eseguire è molto ampio. Pertanto, gli agenti di apprendimento per rinforzo hanno bisogno di molto aiuto dall’intelligenza umana per progettare le giuste ricompense, semplificare il problema e scegliere la giusta architettura. Ad esempio, OpenAI Five, il sistema di apprendimento per rinforzo che ha padroneggiato il videogioco online Dota 2, si è affidato ai suoi progettisti per semplificare le regole del gioco, come ridurre il numero di personaggi giocabili.

“È impossibile controllare, in sistemi tutt’altro che banali, tutte le possibili combinazioni di tutte le azioni possibili che possono portare a ricompense”, scrive Roitblat. “Come con altre situazioni di apprendimento automatico, sono necessarie euristiche per semplificare il problema in qualcosa di più trattabile, anche se non è possibile garantire la migliore risposta possibile.”

Ecco come Roitblat riassume le carenze degli attuali sistemi di intelligenza artificiale in Algorithms Are Not Enough : “Gli attuali approcci all’intelligenza artificiale funzionano perché i loro progettisti hanno capito come strutturare e semplificare i problemi in modo che i computer ei processi esistenti possano affrontarli. Per avere un’intelligenza veramente generale, i computer avranno bisogno della capacità di definire e strutturare i propri problemi “.

La ricerca sull’IA sta andando nella giusta direzione?
“Ogni classificatore (in realtà ogni sistema di apprendimento automatico) può essere descritto in termini di una rappresentazione, un metodo per misurarne il successo e un metodo di aggiornamento”, ha detto Roitblat a TechTalks tramite e-mail. “L’apprendimento è trovare un percorso (una sequenza di aggiornamenti) attraverso uno spazio di valori di parametri. A questo punto, tuttavia, non abbiamo alcun metodo per generare tali rappresentazioni, obiettivi e ottimizzazioni “.

Ci sono vari sforzi per affrontare le sfide degli attuali sistemi di IA. Un’idea popolare è continuare a scalare il deep learning. Il ragionamento generale è che reti neurali più grandi finiranno per decifrare il codice dell’intelligenza generale. Dopo tutto, il cervello umano ha più di 100 trilioni di sinapsi. La più grande rete neurale fino ad oggi, sviluppata dai ricercatori di intelligenza artificiale di Google, ha un trilione di parametri. E le prove dimostrano che l’aggiunta di più livelli e parametri alle reti neurali produce miglioramenti incrementali, specialmente nei modelli di linguaggio come GPT-3.

Ma le grandi reti neurali non affrontano i problemi fondamentali dell’intelligenza generale.

“Questi modelli linguistici sono risultati significativi, ma non sono intelligenza generale”, afferma Roitblat. “Essenzialmente, modellano la sequenza di parole in una lingua. Sono plagiatori con uno strato di astrazione. Dagli un prompt e creerà un testo che ha le proprietà statistiche delle pagine che ha letto, ma nessuna relazione con nient’altro che la lingua. Risolve un problema specifico, come tutte le attuali applicazioni di intelligenza artificiale. È proprio quello che viene pubblicizzato: un modello linguistico. Non è niente, ma non è intelligenza generale “.

Altre direzioni di ricerca cercano di aggiungere miglioramenti strutturali alle attuali strutture di IA.

Ad esempio, l’intelligenza artificiale ibrida riunisce l’IA simbolica e le reti neurali per combinare il potere di ragionamento della prima e le capacità di riconoscimento dei modelli della seconda. Esistono già diverse implementazioni dell’IA ibrida, denominate anche “sistemi neuro-simbolici”, che mostrano che i sistemi ibridi richiedono meno dati di addestramento e sono più stabili nei compiti di ragionamento rispetto agli approcci di rete neurale pura.

Il deep learning del Sistema 2, un’altra direzione della ricerca proposta dal pioniere del deep learning Yoshua Bengio, cerca di portare le reti neurali oltre l’apprendimento statistico. L’apprendimento profondo del sistema 2 mira a consentire alle reti neurali di apprendere “rappresentazioni di alto livello” senza la necessità di incorporare esplicitamente l’intelligenza simbolica.

Un altro sforzo di ricerca è l’apprendimento autogestito, proposto da Yann LeCun, un altro pioniere del deep learning e inventore delle reti neurali convoluzionali. L’apprendimento autogestito mira ad apprendere compiti senza la necessità di dati etichettati ed esplorando il mondo come farebbe un bambino.

“Penso che tutti questi rendano più potenti risolutori di problemi (per problemi di percorso), ma nessuno di loro affronta la questione di come queste soluzioni sono strutturate o generate”, dice Roitblat. “Tutti implicano ancora la navigazione all’interno di uno spazio pre-strutturato. Nessuno di loro affronta la questione della provenienza di questo spazio. Penso che queste siano idee davvero importanti, solo che non rispondono alle esigenze specifiche di passare dall’intelligenza ristretta a quella generale “.

Negli algoritmi non bastano , Roitblat fornisce idee su cosa cercare per far avanzare i sistemi di intelligenza artificiale in grado di cercare e risolvere attivamente problemi per i quali non sono stati progettati. Abbiamo ancora molto da imparare da noi stessi e da come applichiamo la nostra intelligenza nel mondo.

“Le persone intelligenti possono riconoscere l’esistenza di un problema, definirne la natura e rappresentarlo”, scrive Roitblat. “Possono riconoscere dove manca la conoscenza e lavorare per ottenerla. Sebbene le persone intelligenti traggano vantaggio da istruzioni strutturate, sono anche in grado di cercare le proprie fonti di informazione “.

Ma osservare un comportamento intelligente è più facile che crearlo e, come mi ha detto Roitblat nella nostra corrispondenza, “Gli esseri umani non sempre risolvono i loro problemi nel modo in cui dicono / pensano di fare”.

Mentre continuiamo a esplorare l’intelligenza artificiale e umana, continueremo a muoverci verso AGI un passo alla volta.

“L’intelligenza artificiale è un work in progress. Alcune attività sono avanzate più di altre. Alcuni hanno ancora molta strada da fare. I difetti dell’intelligenza artificiale tendono ad essere i difetti del suo creatore piuttosto che le proprietà intrinseche del processo decisionale computazionale. Mi aspetto che migliorino nel tempo “, ha detto Roitblat.

Di ihal