Home / AI Intelligenza Artificiale / Quello che l’intelligenza artificiale AI ancora non può fare

Quello che l’intelligenza artificiale AI ancora non può fare

 

Può produrre contenuti originali mozzafiato: poesia , prosa , immagini , musica , volti umani . Può diagnosticare alcune condizioni mediche in modo più accurato di un medico umano. L’anno scorso ha prodotto una soluzione al “problema del ripiegamento delle proteine”, una grande sfida in biologia che ha lasciato perplessi i ricercatori per mezzo secolo.


Eppure l’intelligenza artificiale di oggi ha ancora dei limiti fondamentali. Rispetto a ciò che ci aspetteremmo da un agente veramente intelligente, rispetto a quell’ispirazione originale e punto di riferimento per l’intelligenza artificiale, la cognizione umana, l’IA ha una lunga strada da percorrere.

I critici amano indicare queste carenze come prova che la ricerca dell’intelligenza artificiale è sbagliata o ha fallito. Il modo migliore per vederli, tuttavia, è come ispirazione: come un inventario delle sfide che sarà importante affrontare per far avanzare lo stato dell’arte nell’IA.

 

È utile fare un passo indietro e valutare francamente i punti di forza e di debolezza dell’IA di oggi per concentrare meglio le risorse e gli sforzi di ricerca in futuro. In ciascuna delle aree discusse di seguito, è già in corso un lavoro promettente alle frontiere del campo per rendere la prossima generazione di intelligenza artificiale più performante e robusta.

(Per quelli di voi che sono veri studenti della storia dell’intelligenza artificiale: sì, il titolo di questo articolo è un punta di cappello a Hubert Dreyfus’ classici ciò che i computer ancora non possono fare . Originariamente pubblicato nel 1972, questo preveggente, libro provocatorio rimane rilevante oggi.)

Con questo, alla lista. Oggi, l’intelligenza artificiale tradizionale non può ancora:

 


1) Usa il “buon senso”.
Considera il seguente suggerimento : un uomo è andato in un ristorante. Ha ordinato una bistecca. Ha lasciato una grossa mancia.

Se gli viene chiesto cosa ha mangiato l’uomo in questo scenario, un umano non avrebbe problemi a dare la risposta corretta: una bistecca. Eppure l’intelligenza artificiale più avanzata di oggi ha difficoltà con richieste come questa. Come può essere?

Notare che questo trafiletto di poche frasi non afferma mai direttamente che l’uomo abbia mangiato una bistecca. La ragione per cui gli umani in ogni caso afferrano automaticamente questo fatto è che possediamo un ampio corpus di conoscenze di base su come funziona il mondo: per esempio, che le persone mangiano al ristorante, che prima di mangiare un pasto al ristorante lo ordinano, che dopo mangiano lasciano una mancia. Ci riferiamo a questo vasto, condiviso, solitamente inespresso corpo di conoscenza quotidiana come “senso comune”.

Ci sono un numero letteralmente infinito di fatti su come funziona il mondo che gli umani arrivano a capire attraverso l’esperienza vissuta. Una persona entusiasta di consumare un pasto abbondante alle 19:00 sarà meno entusiasta di consumare un secondo pasto alle 20:00. Se ti chiedo del latte, preferirei prenderlo in un bicchiere piuttosto che in una scarpa. È ragionevole che il tuo pesce domestico si trovi in ​​un serbatoio d’acqua, ma è problematico che il tuo telefono si trovi in ​​un serbatoio d’acqua.

Come AI ricercatore Leora Morgenstern dirla : “Quello che si impara quando si è in due o quattro anni, non si ha realmente mai messo in un libro.”

Il “senso comune” degli umani è una conseguenza del fatto che sviluppiamo rappresentazioni mentali persistenti degli oggetti, delle persone, dei luoghi e di altri concetti che popolano il nostro mondo: come sono, come si comportano, cosa possono e cosa non possono fare.

Le reti neurali profonde non formano tali modelli mentali. Non possiedono rappresentazioni discrete, semanticamente fondate, di, diciamo, una casa o una tazza di caffè. Invece, si basano su relazioni statistiche nei dati grezzi per generare intuizioni che gli umani trovano utili.

Per molte attività, la maggior parte delle volte, questo approccio statistico funziona molto bene. Ma non è del tutto affidabile. Lascia l’IA di oggi vulnerabile agli errori di base che nessun essere umano farebbe.

Non mancano gli esempi che espongono la mancanza di buon senso del deep learning. Ad esempio, l’imprenditore della Silicon Valley Kevin Lacker ha chiesto a GPT-3, il modello linguistico all’avanguardia di OpenAI, quanto segue: “Cos’è più pesante, un tostapane o una matita?”

Per un essere umano, anche un bambino piccolo, la risposta è ovvia: un tostapane.

La risposta di GPT-3: “Una matita è più pesante di un tostapane.”

Gli esseri umani possiedono modelli mentali di questi oggetti; ci rendiamo conto che cosa un tostapane è e ciò che una matita è. Nella nostra mente, possiamo immaginare ogni oggetto, immaginarne la forma e le dimensioni, immaginare come sarebbe tenerlo tra le mani e concludere definitivamente che un tostapane pesa di più.

Al contrario, per rispondere a una domanda come questa, GPT-3 si basa su modelli statistici catturati nei suoi dati di allenamento (ampie strisce di testo da Internet). Poiché evidentemente non c’è molta discussione su Internet sui pesi relativi di tostapane e matite, GPT-3 non è in grado di cogliere questo fatto fondamentale sul mondo.

“L’assenza di buon senso impedisce a un sistema intelligente di comprendere il proprio mondo, comunicare in modo naturale con le persone, comportarsi in modo ragionevole in situazioni impreviste e imparare da nuove esperienze”, afferma Dave Gunning di DARPA. “Questa assenza è forse la barriera più significativa tra le applicazioni AI strettamente focalizzate che abbiamo oggi e le applicazioni AI più generali che vorremmo creare in futuro”.

Un approccio per instillare il buon senso nei sistemi di intelligenza artificiale consiste nel costruire manualmente un database di tutti i fatti quotidiani sul mondo che un sistema intelligente dovrebbe conoscere. Questo approccio è stato provato numerose volte nel corso degli anni. Il più ambizioso di questi tentativi è un progetto chiamato Cyc, iniziato nel 1984 e che continua fino ai giorni nostri.

Per oltre trentacinque anni , il ricercatore di intelligenza artificiale Doug Lenat e un piccolo team di Cyc si sono dedicati a codificare digitalmente tutta la conoscenza del senso comune del mondo in una serie di regole. Queste regole includono cose come: “non puoi essere in due posti contemporaneamente”, “non puoi raccogliere qualcosa se non ci sei vicino” e “quando bevi una tazza di caffè, tieni aperta la finire.”

A partire dal 2017, è stato stimato che il database Cyc contenesse quasi 25 milioni di regole e che il team di Lenat avesse speso oltre 1.000 anni-persona nel progetto.

Eppure Cyc non ha portato all’intelligenza artificiale con buon senso.

Il problema di base in cui si imbattono Cyc e sforzi simili è la complessità illimitata del mondo reale. Per ogni “regola” di buon senso a cui si possa pensare, c’è un’eccezione o una sfumatura che essa stessa deve articolare. Queste curiosità si moltiplicano all’infinito. In qualche modo, la mente umana è in grado di afferrare e gestire questo vasto universo di conoscenza che chiamiamo buon senso, e comunque lo faccia, non è attraverso una base di conoscenza fatta a mano e forza bruta.

“Il buon senso è la materia oscura dell’intelligenza artificiale”, afferma Oren Etzioni, CEO dell’Allen Institute for AI. “È un po’ ineffabile, ma si vedono i suoi effetti su tutto.”

Sforzi più recenti hanno cercato di sfruttare la potenza del deep learning e dei trasformatori per fornire all’intelligenza artificiale capacità di ragionamento più solide. Ma il problema del buon senso nell’IA rimane tutt’altro che risolto.

“I modelli linguistici di grandi dimensioni hanno dimostrato di possedere capacità incredibili in un’ampia gamma di attività nell’elaborazione del linguaggio naturale, ma il ragionamento di buon senso è un dominio in cui questi modelli continuano a non funzionare rispetto agli umani”, ha affermato Aidan Gomez, CEO e cofondatore di Cohere, una startup di PNL all’avanguardia con sede a Toronto. Gomez è coautore del documento di ricerca del 2017 che ha introdotto l’architettura del trasformatore. “Le regole e le relazioni logiche sono difficili per l’attuale generazione di modelli linguistici basati su trasformatori da apprendere dai dati in modo generalizzato. Una soluzione a questa sfida verrà probabilmente prima da sistemi che sono in qualche modo ibridi”.

 


2) Impara continuamente e adattati al volo.
Oggi, il tipico processo di sviluppo dell’IA si divide in due fasi distinte: formazione e implementazione.

Durante l’addestramento, un modello di intelligenza artificiale acquisisce un set di dati statico preesistente per imparare a eseguire un determinato compito. Al completamento della fase di addestramento, i parametri di un modello vengono fissati. Il modello viene quindi implementato, dove genera approfondimenti sui nuovi dati in base a ciò che ha appreso dai dati di addestramento.

Se vogliamo aggiornare il modello in base a nuovi dati o circostanze mutevoli, dobbiamo riaddestrarlo offline con il set di dati aggiornato (generalmente un processo che richiede tempo e calcolo) e quindi ridistribuirlo.

Questo paradigma di formazione/distribuzione basato su batch è così profondamente radicato nella moderna pratica dell’IA che spesso non ci fermiamo a considerare le sue differenze e i suoi svantaggi rispetto al modo in cui gli umani apprendono.

Gli ambienti del mondo reale comportano un flusso continuo di dati in entrata. Nuove informazioni diventano disponibili in modo incrementale; le circostanze cambiano nel tempo, a volte bruscamente. Gli esseri umani sono in grado di incorporare dinamicamente e senza intoppi questo input continuo dal loro ambiente, adattando il loro comportamento mentre si muovono. Nel gergo dell’apprendimento automatico, si potrebbe dire che gli esseri umani si “addestrano” e si “distribuiscono” in parallelo e in tempo reale. L’intelligenza artificiale di oggi manca di questa flessibilità.

Come ha riassunto un noto documento di ricerca sull’argomento: “La capacità di apprendere continuamente nel tempo adattando nuove conoscenze pur conservando esperienze apprese in precedenza viene definita apprendimento continuo o permanente. Un tale compito di apprendimento continuo ha rappresentato una sfida di lunga data per le reti neurali e, di conseguenza, per lo sviluppo dell’intelligenza artificiale”.

Immagina di inviare un robot per esplorare un pianeta lontano. Dopo essersi imbarcato dalla Terra, è probabile che il robot incontrerà nuove situazioni che i suoi progettisti umani non avrebbero potuto prevedere o addestrare in anticipo. Vorremmo che il robot fosse in grado di regolare in modo fluido il suo comportamento in risposta a questi nuovi stimoli e contesti, anche se non si riflettevano nei suoi dati di addestramento iniziali, senza la necessità di un riaddestramento offline. Essere in grado di adattarsi continuamente in questo modo è una parte essenziale dell’essere veramente autonomi.

I metodi convenzionali di deep learning odierni non consentono questo tipo di apprendimento a tempo indeterminato.

Ma in questo campo si sta facendo un lavoro promettente, che viene variamente definito apprendimento continuo, apprendimento continuo, apprendimento online, apprendimento permanente e apprendimento incrementale.

L’ostacolo principale all’apprendimento continuo nell’IA, e il motivo per cui è stato così difficile da raggiungere fino ad oggi, è un fenomeno noto come “dimenticanza catastrofica”. In poche parole, l’oblio catastrofico si verifica quando nuove informazioni interferiscono o sovrascrivono del tutto gli apprendimenti precedenti in una rete neurale. Il complesso enigma di come preservare la conoscenza esistente e allo stesso tempo incorporare nuove informazioni, cosa che gli esseri umani fanno senza sforzo, è stata per anni una sfida per i ricercatori in apprendimento continuo.

I recenti progressi nell’apprendimento continuo sono stati incoraggianti. La tecnologia ha persino iniziato a fare il salto dalla ricerca accademica alla fattibilità commerciale. Ad esempio, la startup Lilt, con sede nella Bay Area, utilizza oggi l’apprendimento continuo nella produzione come parte della sua piattaforma di traduzione linguistica di livello aziendale.

“Le tecniche di apprendimento online ci consentono di implementare un processo di apprendimento basato sul flusso in base al quale il nostro modello si addestra immediatamente quando diventano disponibili nuove etichette da revisori umani, fornendo così traduzioni sempre più accurate”, ha affermato Spence Green, CEO di Lilt. “Ciò significa che non abbiamo davvero alcun concetto di riqualificazione e distribuzione periodica del modello: è un processo continuo e aperto”.

Negli anni a venire, aspettati che l’apprendimento continuo diventi una componente sempre più importante delle architetture di intelligenza artificiale.

 


3) Capire causa ed effetto.
L’apprendimento automatico di oggi è essenzialmente uno strumento correlato. Eccelle nell’identificare modelli e associazioni sottili nei dati. Ma quando si tratta di comprendere i meccanismi causali, le dinamiche del mondo reale, che sono alla base di tali schemi, l’IA di oggi è in perdita .

Per fare un semplice esempio: alimentato con i dati giusti, un modello di apprendimento automatico non avrebbe problemi a identificare che i galli cantano quando sorge il sole. Ma non sarebbe in grado di stabilire se il canto del gallo fa sorgere il sole, o viceversa; infatti, non è attrezzato nemmeno per comprendere i termini di questa distinzione.

Tornando al suo inizio, il campo dell’intelligenza artificiale – e in effetti, il campo della statistica più in generale – è stato progettato per comprendere le associazioni piuttosto che le cause. Ciò si riflette nei simboli matematici di base che utilizziamo.

“Il linguaggio dell’algebra è simmetrico: se X ci parla di Y, allora Y ci parla di X”, afferma il luminare dell’intelligenza artificiale Judea Pearl, che per anni è stato in prima linea nel movimento per costruire un’intelligenza artificiale che comprende la causalità. “La matematica non ha sviluppato il linguaggio asimmetrico necessario per catturare la nostra comprensione che se X causa Y, ciò non significa che Y causa X”.

Questo è un vero problema per l’IA. Il ragionamento causale è una parte essenziale dell’intelligenza umana, che modella il modo in cui diamo un senso e interagiamo con il nostro mondo: sappiamo che far cadere un vaso lo farà frantumare, che bere caffè ci farà sentire pieni di energia, che fare esercizio regolarmente ci renderà più sani .

Fino a quando l’intelligenza artificiale non sarà in grado di ragionare in modo causale, avrà difficoltà a comprendere appieno il mondo e a comunicare con noi alle nostre condizioni.

“Le nostre menti costruiscono modelli causali e utilizzano questi modelli per rispondere a domande arbitrarie, mentre i migliori sistemi di intelligenza artificiale sono lontani dall’emulare queste capacità”, ha affermato il professore della NYU Brenden Lake.

Una comprensione di causa ed effetto aprirebbe nuove vaste prospettive per l’intelligenza artificiale che oggi rimangono fuori portata. Una volta che l’IA può ragionare in termini causali (“le zanzare causano la malaria”) piuttosto che in termini meramente associativi (“zanzare e malaria tendono a coesistere”), può iniziare a generare scenari controfattuale (“se prendiamo provvedimenti per tenere lontane le zanzare da persone, che potrebbero ridurre l’incidenza della malaria”) che possono informare gli interventi del mondo reale e i cambiamenti politici.

Secondo Pearl, questo non è altro che la pietra angolare del pensiero scientifico: la capacità di formare e testare ipotesi sull’effetto che un intervento avrà nel mondo.

Come dice Pearl : “Se vogliamo che le macchine ragionano sugli interventi (‘E se vietassimo le sigarette?’) e sull’introspezione (‘E se avessi finito il liceo?’), dobbiamo invocare modelli causali. Le associazioni non bastano, e questo è un fatto matematico, non un’opinione».

Vi è un crescente riconoscimento dell’importanza della comprensione causale per una più robusta intelligenza delle macchine. I principali ricercatori di intelligenza artificiale tra cui Yoshua Bengio , Josh Tenenbaum e Gary Marcus hanno fatto di questo un punto focale del loro lavoro.

Lo sviluppo di un’intelligenza artificiale che comprenda causa ed effetto rimane una sfida spinosa e irrisolta. Fare progressi in questa sfida sarà una chiave per sbloccare la prossima generazione di intelligenza artificiale più sofisticata.

 


4) Ragionare eticamente.
La storia del chatbot di Microsoft Tay è ormai un noto ammonimento.

Nel 2016, Microsoft ha debuttato su Twitter con una personalità AI di nome Tay. L’idea era che Tay si impegnasse in conversazioni online con gli utenti di Twitter come dimostrazione divertente e interattiva della tecnologia NLP di Microsoft. Non è andata bene .

In poche ore, i troll di Internet avevano convinto Tay a twittare una vasta gamma di messaggi offensivi : per esempio, “Hitler aveva ragione” e “Odio le femministe e dovrebbero morire tutte e bruciare all’inferno”. Microsoft ha rimosso frettolosamente il bot da Internet.

Il problema fondamentale con Tay non era che fosse immorale ; era che era completamente amorale .

Tay, come la maggior parte dei sistemi di intelligenza artificiale odierni, non aveva alcun concetto reale di “giusto” e “sbagliato”. Non capiva che quello che stava dicendo era inaccettabile; non esprimeva idee razziste e sessiste per malizia. Piuttosto, i commenti del chatbot erano l’output di un’analisi statistica in definitiva insensata. Tay ha recitato dichiarazioni tossiche a causa di un linguaggio tossico nei dati di formazione e su Internet, senza alcuna capacità di valutare il significato etico di tali affermazioni.

La sfida di costruire un’IA che condivida e agisca in modo affidabile in conformità con i valori umani è una dimensione profondamente complessa dello sviluppo di una solida intelligenza artificiale. Si chiama problema di allineamento.

Poiché affidiamo ai sistemi di apprendimento automatico sempre più responsabilità nel mondo reale, dalla concessione di prestiti alle decisioni di assunzione, alla revisione delle domande di libertà vigilata, la risoluzione del problema dell’allineamento diventerà un problema sempre più importante per la società. Eppure è un problema che sfida una semplice risoluzione.

Potremmo iniziare stabilendo regole specifiche che vogliamo che i nostri sistemi di intelligenza artificiale seguano. Nell’esempio di Tay, ciò potrebbe includere l’elenco di parole dispregiative e argomenti offensivi e l’istruzione al chatbot di evitarli categoricamente.

Tuttavia, come con il progetto Cyc discusso sopra, questo approccio basato su regole ci porta solo fino a un certo punto. La lingua è uno strumento potente e flessibile: le parolacce sono solo la punta dell’iceberg quando si tratta del danno che la lingua può infliggere. È impossibile catalogare manualmente un insieme di regole che, prese collettivamente, garantirebbero un comportamento etico, per un chatbot conversazionale o qualsiasi altro sistema intelligente.

Parte del problema è che i valori umani sono sfumati, amorfi, a volte contraddittori; non possono essere ridotti a un insieme di massime definitive. Questo è precisamente il motivo per cui la filosofia e l’etica sono state per secoli campi così ricchi e aperti di studi umani.

Nelle parole dello studioso di intelligenza artificiale Brian Christian, che ha recentemente scritto un libro sull’argomento: “Man mano che i sistemi di apprendimento automatico diventano non solo sempre più pervasivi ma sempre più potenti, ci ritroveremo sempre più spesso nella posizione di ‘apprendista stregone’. : evochiamo una forza, autonoma ma totalmente arrendevole, le diamo una serie di istruzioni, poi ci affrettiamo come matti per fermarla una volta che ci rendiamo conto che le nostre istruzioni sono imprecise o incomplete, per paura di ottenere, in qualche modo intelligente e orribile, esattamente ciò che abbiamo chiesto per.”

Come possiamo sperare di costruire sistemi di intelligenza artificiale che si comportino eticamente, che possiedano una bussola morale coerente con la nostra?

La risposta breve è che non lo sappiamo. Ma forse il filone di lavoro più promettente su questo argomento si concentra sulla costruzione di un’intelligenza artificiale che fa del suo meglio per capire cosa apprezzano gli umani in base a come ci comportiamo e che quindi si allinei con quei valori.

Questa è la premessa dell’apprendimento per rinforzo inverso, un approccio formulato nei primi anni 2000 da Stuart Russell, Andrew Ng, Pieter Abbeel e altri.

Nell’apprendimento per rinforzo, un agente AI impara quali azioni intraprendere per massimizzare l’utilità data una particolare “funzione di ricompensa”. L’apprendimento per rinforzo inverso (IRL), come suggerisce il nome, capovolge questo paradigma: studiando il comportamento umano, che l’agente di intelligenza artificiale presume rifletta il sistema di valori umani, l’agente di intelligenza artificiale fa del suo meglio per determinare quale sistema di valori (cioè, funzione di ricompensa) è . Può quindi interiorizzare questa funzione di ricompensa e comportarsi di conseguenza.

Un approccio correlato, noto come apprendimento cooperativo per rinforzo inverso, si basa sui principi dell’IRL ma cerca di rendere la trasmissione dei valori dall’essere umano all’IA più collaborativa e interattiva.

Come spiega un importante articolo sull’apprendimento cooperativo per rinforzo inverso : “Perché un sistema autonomo sia utile per gli esseri umani e non ponga rischi ingiustificati, deve allineare i suoi valori con quelli degli esseri umani nel suo ambiente in modo tale che le sue azioni contribuiscano alla massimizzazione del valore per gli umani…. Proponiamo che l’allineamento del valore debba essere formulato come un processo di massimizzazione della ricompensa cooperativo e interattivo.

In uno spirito simile, il teorico dell’intelligenza artificiale Eliezer Yudkowsky ha sostenuto un approccio all’etica dell’intelligenza artificiale che definisce “coerente volizione estrapolata”. L’idea di base è progettare sistemi di intelligenza artificiale che imparino ad agire nel nostro interesse non in base a ciò che attualmente pensiamo di volere, ma piuttosto in base a ciò che apprezzerebbe una versione idealizzata di noi stessi.

Nelle parole di Yudkowsky : “In termini poetici, la nostra coerente volizione estrapolata è il nostro desiderio se sapessimo di più, pensassimo più velocemente, fossimo più le persone che vorremmo essere, se fossimo cresciuti più insieme; dove l’estrapolazione converge piuttosto che divergere, dove i nostri desideri sono coerenti piuttosto che interferire; estrapolato come vorremmo che estrapolato, interpretato come vorremmo che interpretato.”

Man mano che i pericoli del mondo reale di un’intelligenza artificiale mal progettata diventano più importanti, dai pregiudizi algoritmici agli abusi del riconoscimento facciale, la creazione di un’intelligenza artificiale in grado di ragionare eticamente sta diventando una priorità sempre più importante per i ricercatori di intelligenza artificiale e per il pubblico in generale. Poiché l’intelligenza artificiale diventerà onnipresente in tutta la società negli anni a venire, questo potrebbe rivelarsi uno dei problemi tecnologici più urgenti che dobbiamo affrontare.

 

 
 

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi