L’inferenza abduttiva è un importante punto cieco per l’IA

I recenti progressi nell’apprendimento profondo hanno riacceso l’interesse per l’imminenza di macchine in grado di pensare e agire come gli esseri umani o l’intelligenza artificiale generale. Seguendo il percorso di costruzione di reti neurali più grandi e migliori , il pensiero va, saremo in grado di avvicinarci sempre di più alla creazione di una versione digitale del cervello umano.

Ma questo è un mito, sostiene lo scienziato informatico Erik Larson, e tutte le prove suggeriscono che l’intelligenza umana e quella delle macchine sono radicalmente diverse. Il nuovo libro di Larson, The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do , discute di come le idee sbagliate ampiamente pubblicizzate sull’intelligenza e l’inferenza abbiano portato la ricerca sull’intelligenza artificiale lungo percorsi ristretti che stanno limitando l’innovazione e le scoperte scientifiche.

 
E a meno che gli scienziati, i ricercatori e le organizzazioni che supportano il loro lavoro non cambino rotta, avverte Larson, saranno condannati a “rassegnarsi allo strisciare di una terra di macchine, dove l’invenzione genuina è messa da parte a favore di discorsi futuristici che sostengono l’attuale approcci, spesso da interessi radicati”.

Il mito dell’intelligenza artificiale

Da un punto di vista scientifico, il mito dell’IA presuppone che raggiungeremo l’intelligenza artificiale generale (AGI) facendo progressi su applicazioni ristrette, come classificare immagini, comprendere comandi vocali o giocare. Ma le tecnologie alla base di questi ristretti sistemi di intelligenza artificiale non affrontano le sfide più ampie che devono essere risolte per le capacità di intelligence generale, come tenere conversazioni di base, svolgere semplici lavori domestici o altri compiti che richiedono buon senso.

“Poiché applichiamo con successo versioni più semplici e ristrette dell’intelligenza che beneficiano di computer più veloci e molti dati, non stiamo facendo progressi incrementali, ma piuttosto stiamo raccogliendo i frutti più bassi”, scrive Larson.

La conseguenza culturale del mito dell’IA è ignorare il mistero scientifico dell’intelligenza e parlare all’infinito di progressi in corso sull’apprendimento profondo e su altre tecnologie contemporanee. Questo mito scoraggia gli scienziati dal pensare a nuovi modi per affrontare la sfida dell’intelligenza.

“È improbabile che otteniamo innovazione se scegliamo di ignorare un mistero fondamentale piuttosto che affrontarlo”, scrive Larson. “Una sana cultura per l’innovazione enfatizza l’esplorazione delle incognite, non l’esaltazione delle estensioni dei metodi esistenti… La mitologia sull’inevitabile successo nell’IA tende a estinguere la stessa cultura dell’invenzione necessaria per il vero progresso”.



Esci di casa e noti che la strada è bagnata. Il tuo primo pensiero è che deve aver piovuto. Ma c’è il sole e il marciapiede è asciutto, quindi si cancella subito la possibilità di pioggia. Se guardi di lato, vedi un’autocisterna per il lavaggio stradale parcheggiata in fondo alla strada. Concludi che la strada è bagnata perché l’autocisterna l’ha lavata.

Questo è un esempio di “inferenza”, l’atto di passare dalle osservazioni alle conclusioni, ed è la funzione fondamentale degli esseri intelligenti. Deduciamo costantemente cose in base a ciò che sappiamo e a ciò che percepiamo. La maggior parte di ciò accade inconsciamente, sullo sfondo della nostra mente, senza focalizzazione e attenzione diretta.

“Qualsiasi sistema che deduce deve avere un’intelligenza di base, perché l’atto stesso di usare ciò che è noto e ciò che si osserva per aggiornare le credenze è inevitabilmente legato a ciò che intendiamo per intelligenza”, scrive Larson.

I ricercatori di intelligenza artificiale basano i loro sistemi su due tipi di macchine di inferenza: deduttiva e induttiva. L’inferenza deduttiva utilizza la conoscenza precedente per ragionare sul mondo. Questa è la base dell’intelligenza artificiale simbolica , l’obiettivo principale dei ricercatori nei primi decenni dell’IA. Gli ingegneri creano sistemi simbolici dotandoli di un insieme predefinito di regole e fatti, e l’IA usa questa conoscenza per ragionare sui dati che riceve.

L’inferenza induttiva, che ha guadagnato più trazione tra i ricercatori di intelligenza artificiale e le aziende tecnologiche nell’ultimo decennio, è l’acquisizione di conoscenza attraverso l’esperienza. Gli algoritmi di apprendimento automatico sono motori di inferenza induttiva. Un modello ML addestrato su esempi pertinenti troverà modelli che mappano gli input agli output. Negli ultimi anni, i ricercatori di intelligenza artificiale hanno utilizzato l’apprendimento automatico, i big data e i processori avanzati per addestrare i modelli su compiti che andavano oltre la capacità dei sistemi simbolici.

Un terzo tipo di ragionamento, l’ inferenza abduttiva , fu introdotto per la prima volta dallo scienziato americano Charles Sanders Peirce nel XIX secolo. L’inferenza abduttiva è la capacità cognitiva di elaborare intuizioni e ipotesi, di formulare ipotesi che siano migliori delle pugnalate casuali alla verità.

 

Sopra: lo scienziato americano Charles Sanders Peirce ha proposto l’inferenza abduttiva nel 19° secolo. Fonte: Biblioteca pubblica di New York, dominio pubblico

Ad esempio, ci possono essere numerose ragioni per cui la strada è bagnata (comprese alcune che non abbiamo sperimentato direttamente prima), ma l’inferenza abduttiva ci consente di selezionare le ipotesi più promettenti, eliminare rapidamente quelle sbagliate, cercarne di nuove e giungere a una conclusione attendibile. Come afferma Larson in Il mito dell’intelligenza artificiale , “immaginiamo, su uno sfondo di possibilità effettivamente infinite, quali ipotesi sembrano probabili o plausibili”.

L’inferenza abduttiva è ciò che molti chiamano “senso comune”. È la cornice concettuale all’interno della quale osserviamo fatti o dati e il collante che unisce gli altri tipi di inferenza. Ci consente di concentrarci in qualsiasi momento su ciò che è rilevante tra la tonnellata di informazioni che esiste nella nostra mente e la tonnellata di dati che stiamo ricevendo attraverso i nostri sensi.

Il problema è che la comunità dell’intelligenza artificiale non ha prestato sufficiente attenzione all’inferenza abduttiva.

IA e inferenza abduttiva
Il rapimento è entrato nella discussione sull’intelligenza artificiale con tentativi di programmazione logica abduttiva negli anni ’80 e ’90, ma quegli sforzi erano imperfetti e successivamente abbandonati. “Erano riformulazioni della programmazione logica, che è una variante della deduzione”, ha detto Larson a TechTalks .

 

Sopra: Erik J. Larson, autore di “The Myth of Artificial Intelligence”

Il rapimento ha avuto un’altra possibilità negli anni 2010 come reti bayesiane , motori di inferenza che cercano di calcolare la causalità. Ma come gli approcci precedenti, i nuovi approcci condividevano il difetto di non catturare il vero rapimento, ha detto Larson, aggiungendo che bayesiano e altri modelli grafici “sono varianti dell’induzione”. In Il mito dell’intelligenza artificiale , si riferisce a loro come “rapimento solo di nome”.

Per la maggior parte, la storia dell’IA è stata dominata dalla deduzione e dall’induzione.

“Quando i primi pionieri dell’intelligenza artificiale come [Alan] Newell, [Herbert] Simon, [John] McCarthy e [Marvin] Minsky hanno affrontato la questione dell’inferenza artificiale (il nucleo dell’intelligenza artificiale), hanno pensato che scrivere regole in stile deduttivo avrebbe è sufficiente per generare pensiero e azione intelligenti”, ha detto Larson. “Non è mai stato così, in realtà, come avrebbe dovuto essere riconosciuto in precedenza nelle discussioni su come facciamo scienza”.

Per decenni, i ricercatori hanno cercato di espandere i poteri dei sistemi di intelligenza artificiale simbolica fornendo loro regole e fatti scritti manualmente. La premessa era che se dotassi un sistema di intelligenza artificiale di tutte le conoscenze che gli umani conoscono, sarà in grado di agire con la stessa intelligenza degli umani. Ma la pura IA simbolica ha fallito per vari motivi. I sistemi simbolici non possono acquisire e aggiungere nuova conoscenza, il che li rende rigidi. La creazione di un’IA simbolica diventa una corsa infinita all’aggiunta di nuovi fatti e regole solo per scoprire che il sistema commette nuovi errori che non può correggere. E gran parte della nostra conoscenza è implicita e non può essere espressa in regole e fatti e alimentata a sistemi simbolici.

“È curioso qui che nessuno si sia fermato in modo esplicito e abbia detto ‘Aspetta. Questo non funzionerà!’” Ha detto Larson. “Ciò avrebbe spostato la ricerca direttamente verso il rapimento o la generazione di ipotesi o, ad esempio, ‘inferenza sensibile al contesto'”.

Negli ultimi due decenni, con la crescente disponibilità di dati e risorse di calcolo, gli algoritmi di apprendimento automatico, in particolare le reti neurali profonde, sono diventati il ​​fulcro dell’attenzione nella comunità dell’IA. La tecnologia di deep learning ha sbloccato molte applicazioni che in precedenza erano oltre i limiti dei computer. E ha attirato l’interesse e il denaro di alcune delle aziende più ricche del mondo .

“Penso che con l’avvento del World Wide Web, gli approcci empirici o induttivi (incentrati sui dati) abbiano preso il sopravvento e il rapimento, come la deduzione, sia stato in gran parte dimenticato”, ha detto Larson.

Ma i sistemi di apprendimento automatico soffrono anche di gravi limiti, tra cui la mancanza di causalità , la scarsa gestione dei casi limite e la necessità di troppi dati. E questi limiti stanno diventando più evidenti e problematici man mano che i ricercatori cercano di applicare il machine learning a settori sensibili come la sanità e la finanza.

Inferenza abduttiva e percorsi futuri dell’IA

Alcuni scienziati, tra cui il pioniere dell’apprendimento per rinforzo Richard Sutton , ritengono che dovremmo attenerci a metodi in grado di scalare con la disponibilità di dati e calcoli, vale a dire l’apprendimento e la ricerca. Ad esempio, man mano che le reti neurali diventano più grandi e vengono addestrate su più dati, alla fine supereranno i propri limiti e porteranno a nuove scoperte.

Larson respinge l’aumento dell’intelligenza artificiale basata sui dati come “fondamentalmente imperfetto come modello per l’intelligenza”. Sebbene sia la ricerca che l’apprendimento possano fornire applicazioni utili, si basano su un’inferenza non abduttiva, ribadisce.

“La ricerca non si trasformerà nel buon senso o nell’inferenza abduttiva senza una rivoluzione nel modo di pensare all’inferenza, cosa che non è ancora avvenuta. Allo stesso modo con l’apprendimento automatico, la natura basata sui dati degli approcci di apprendimento significa essenzialmente che le inferenze devono essere nei dati , per così dire, e questo non è dimostrabilmente vero per molte inferenze intelligenti che le persone eseguono abitualmente”, ha detto Larson. “Non ci limitiamo a guardare al passato, catturato, ad esempio, in un ampio set di dati, per capire cosa concludere, pensare o dedurre sul futuro”.

Altri scienziati ritengono che l’ IA ibrida che riunisce sistemi simbolici e reti neurali avrà una maggiore promessa di affrontare le carenze del deep learning. Un esempio è IBM Watson, che è diventato famoso quando ha battuto i campioni del mondo a Jeopardy! Più recenti modelli ibridi proof-of-concept hanno mostrato risultati promettenti in applicazioni in cui l’intelligenza artificiale simbolica e il deep learning da soli hanno prestazioni scadenti.

Larson ritiene che i sistemi ibridi possano colmare le lacune negli approcci basati solo sull’apprendimento automatico o basati solo su regole. In qualità di ricercatore nel campo dell’elaborazione del linguaggio naturale, sta attualmente lavorando alla combinazione di grandi modelli linguistici pre-addestrati come GPT-3 con lavori precedenti sul web semantico sotto forma di grafici della conoscenza per creare applicazioni migliori nella ricerca, risposta alle domande, e altri compiti.

“Ma le combo deduzione-induzione non ci portano al rapimento, perché i tre tipi di inferenza sono formalmente distinti, quindi non si riducono l’uno all’altro e non possono essere combinati per ottenere un terzo”, ha detto.

In Il mito dell’intelligenza artificiale , Larson descrive i tentativi di aggirare il rapimento come la “trappola dell’inferenza”.

“Le tecniche ispirate puramente induttivamente come l’apprendimento automatico rimangono inadeguate, indipendentemente dalla velocità dei computer, e anche i sistemi ibridi come Watson non sono all’altezza della comprensione generale”, scrive. “In scenari aperti che richiedono la conoscenza del mondo come la comprensione della lingua , il rapimento è centrale e insostituibile. Per questo motivo, i tentativi di combinare strategie deduttive e induttive sono sempre destinati a fallire… Il campo ha bisogno di una teoria fondamentale dell’abduzione. Nel frattempo, siamo bloccati nelle trappole”.

The commercialization of AI

L’ attenzione ristretta della comunità di intelligenza artificiale sugli approcci basati sui dati ha centralizzato la ricerca e l’innovazione in poche organizzazioni che dispongono di vasti archivi di dati e tasche profonde . Con il deep learning che diventa un modo utile per trasformare i dati in prodotti redditizi, le grandi aziende tecnologiche sono ora bloccate in una corsa serrata per assumere talenti dell’IA, allontanando i ricercatori dal mondo accademico offrendo loro stipendi redditizi.

Questo cambiamento ha reso molto difficile per i laboratori senza scopo di lucro e le piccole aziende essere coinvolti nella ricerca sull’IA.

“Quando leghi la ricerca e lo sviluppo nell’IA alla proprietà e al controllo di set di dati molto grandi, ottieni una barriera all’ingresso per le start-up, che non possiedono i dati”, ha detto Larson, aggiungendo che l’IA basata sui dati crea intrinsecamente scenari “winner-take-all” nel settore commerciale.

La monopolizzazione dell’IA sta a sua volta ostacolando la ricerca scientifica. Con le grandi aziende tecnologiche che si concentrano sulla creazione di applicazioni in cui possono sfruttare le loro vaste risorse di dati per mantenere il vantaggio sui loro concorrenti, c’è poco incentivo a esplorare approcci alternativi all’IA. Il lavoro sul campo inizia a inclinarsi verso applicazioni ristrette e redditizie a scapito degli sforzi che possono portare a nuove invenzioni.

“Nessuno al momento sa come sarebbe l’intelligenza artificiale in assenza di set di dati centralizzati così giganteschi, quindi non c’è davvero nulla da offrire agli imprenditori che cercano di competere progettando un’intelligenza artificiale diversa e più potente”, ha affermato Larson.

Nel suo libro, Larson mette in guardia sull’attuale cultura dell’intelligenza artificiale, che “sta spremendo i profitti da frutti a bassa quota, mentre continua a far girare la mitologia dell’intelligenza artificiale”. L’illusione del progresso sull’intelligenza artificiale generale può portare a un altro inverno dell’IA , scrive.

Ma mentre un inverno di intelligenza artificiale potrebbe smorzare l’interesse per il deep learning e l’intelligenza artificiale basata sui dati, può aprire la strada a una nuova generazione di pensatori per esplorare nuovi percorsi. Larson spera che gli scienziati inizino a guardare oltre i metodi esistenti.

In Il mito dell’intelligenza artificiale , Larson fornisce un quadro di inferenza che fa luce sulle sfide che il settore deve affrontare oggi e aiuta i lettori a vedere attraverso le affermazioni esagerate sui progressi verso l’AGI o la singolarità .

“La mia speranza è che i non specialisti dispongano di alcuni strumenti per combattere questo tipo di pensiero inevitabile, che non è scientifico, e che i miei colleghi e altri scienziati dell’IA possano vederlo come un campanello d’allarme per mettersi al lavoro sul reale problemi che il campo deve affrontare”, ha detto Larson.

Ben Dickson da  Bdtechtalks.com 

Di ihal