La storia dell’intelligenza artificiale è stata segnata da ripetuti cicli di estremo ottimismo e promesse seguiti da disillusione e delusione . Gli odierni sistemi di intelligenza artificiale possono eseguire compiti complicati in un’ampia gamma di aree, come la matematica, i giochi e la generazione di immagini fotorealistiche. Ma alcuni dei primi obiettivi dell’IA, come i robot domestici e le auto a guida autonoma, continuano a diminuire man mano che ci avviciniamo.
Secondo Melanie Mitchell, Davis Professor of Complexity presso il Santa Fe Institute e autrice di Artificial Intelligence: A Guide For Thinking Humans, parte del ciclo continuo di mancato raggiungimento di questi obiettivi è dovuto a presupposti errati sull’intelligenza artificiale e sull’intelligenza naturale .
In un nuovo documento intitolato ” Perché l’intelligenza artificiale è più difficile di quanto pensiamo “, Mitchell espone quattro errori comuni sull’intelligenza artificiale che causano incomprensioni non solo tra il pubblico e i media, ma anche tra gli esperti. Questi errori danno un falso senso di fiducia su quanto siamo vicini al raggiungimento dell’intelligenza artificiale generale , sistemi di intelligenza artificiale in grado di eguagliare le capacità cognitive e generali di risoluzione dei problemi degli esseri umani.
L’IA stretta e l’IA generale non sono sulla stessa scala
Il tipo di intelligenza artificiale che abbiamo oggi può essere molto bravo a risolvere problemi strettamente definiti. Possono sconfiggere gli umani al Go e negli scacchi , trovare schemi cancerosi nelle immagini a raggi X con notevole precisione e convertire i dati audio in testo. Ma progettare sistemi in grado di risolvere singoli problemi non ci avvicina necessariamente alla risoluzione di problemi più complicati. Mitchell descrive il primo errore come “L’intelligenza ristretta è su un continuum con l’intelligenza generale”.
“Se le persone vedono una macchina fare qualcosa di straordinario, anche se in un’area ristretta, spesso presumono che il campo sia molto più avanti verso l’IA generale”, scrive Mitchell nel suo articolo.
Ad esempio, i sistemi di elaborazione del linguaggio naturale di oggi hanno fatto molta strada per risolvere molti problemi diversi, come la traduzione, la generazione di testo e la risposta a domande su problemi specifici. Allo stesso tempo, disponiamo di sistemi di deep learning in grado di convertire i dati vocali in testo in tempo reale. Dietro ciascuno di questi risultati ci sono migliaia di ore di ricerca e sviluppo (e milioni di dollari spesi in computer e dati). Ma la comunità AI non ha ancora risolto il problema di creare agenti in grado di impegnarsi in conversazioni aperte senza perdere coerenza per lunghi periodi. Un tale sistema richiede più della semplice risoluzione di problemi minori; richiede buon senso, una delle principali sfide irrisolte dell’IA.
Le cose facili sono difficili da automatizzare
Sopra: la visione, uno dei problemi che ogni essere vivente risolve senza sforzo, rimane una sfida per i computer.
Quando si tratta di esseri umani, ci aspetteremmo che una persona intelligente faccia cose difficili che richiedono anni di studio e pratica. Gli esempi potrebbero includere attività come risolvere problemi fisici e di calcolo, giocare a scacchi a livello di grande maestro o memorizzare molte poesie.
Ma decenni di ricerca sull’IA hanno dimostrato che i compiti difficili, quelli che richiedono un’attenzione consapevole, sono più facili da automatizzare. Sono i compiti facili, le cose che diamo per scontate, che sono difficili da automatizzare. Mitchell descrive il secondo errore come “le cose facili sono facili e le cose difficili sono difficili”.
“Le cose che noi umani facciamo senza pensarci troppo – guardare il mondo e dare un senso a ciò che vediamo, portare avanti una conversazione, camminare su un marciapiede affollato senza urtare nessuno – si rivelano essere le sfide più difficili per le macchine”, Mitchell scrive. “Al contrario, spesso è più facile far sì che le macchine facciano cose molto difficili per gli esseri umani; per esempio, la risoluzione di complessi problemi matematici, la padronanza di giochi come gli scacchi e il go e la traduzione di frasi tra centinaia di lingue si sono rivelate relativamente più facili per le macchine “.
Considera la visione, per esempio. Nel corso di miliardi di anni, gli organismi hanno sviluppato apparati complessi per l’elaborazione dei segnali luminosi. Gli animali usano gli occhi per fare il punto sugli oggetti che li circondano, spostarsi nell’ambiente circostante, trovare cibo, rilevare minacce e svolgere molti altri compiti vitali per la loro sopravvivenza. Noi umani abbiamo ereditato tutte queste capacità dai nostri antenati e le usiamo senza un pensiero cosciente. Ma il meccanismo sottostante è davvero più complicato delle grandi formule matematiche che ci frustrano durante le scuole superiori e l’università.
Caso in questione: non abbiamo ancora sistemi di visione artificiale che siano versatili quasi quanto la visione umana. Siamo riusciti a creare reti neurali artificiali che imitano approssimativamente parti del sistema di visione animale e umano, come il rilevamento di oggetti e la segmentazione di immagini. Ma sono fragili, sensibili a molti diversi tipi di perturbazioni e non possono imitare l’intera portata dei compiti che la visione biologica può svolgere. Ecco perché, ad esempio, i sistemi di visione artificiale utilizzati nelle auto a guida autonoma devono essere integrati con tecnologie avanzate come lidar e dati cartografici.
Un’altra area che si è rivelata molto difficile sono le abilità sensomotorie che gli esseri umani padroneggiano senza un addestramento esplicito. Pensa a come maneggi gli oggetti, cammini, corri e salti. Questi sono compiti che puoi svolgere senza il pensiero cosciente. Infatti, mentre cammini, puoi fare altre cose, come ascoltare un podcast o parlare al telefono. Ma questo tipo di abilità rimane una sfida grande e costosa per gli attuali sistemi di intelligenza artificiale.
“L’intelligenza artificiale è più difficile di quanto pensiamo, perché siamo in gran parte inconsapevoli della complessità dei nostri processi di pensiero”, scrive Mitchell.
L’intelligenza artificiale antropomorfica non aiuta
Il campo dell’IA è pieno di vocaboli che mettono il software allo stesso livello dell’intelligenza umana. Usiamo termini come “imparare”, “capire”, “leggere” e “pensare” per descrivere come funzionano gli algoritmi di intelligenza artificiale. Sebbene tali termini antropomorfici spesso fungano da scorciatoia per aiutare a trasmettere meccanismi software complessi, possono indurci a pensare che gli attuali sistemi di intelligenza artificiale funzionino come la mente umana .
Mitchell chiama questo errore “il richiamo di un pio desiderio mnemonico” e scrive: “Tale stenografia può essere fuorviante per il pubblico che cerca di comprendere questi risultati (e per i media che li riferiscono), e può anche inconsciamente modellare il modo in cui pensano anche gli esperti di intelligenza artificiale. i loro sistemi e quanto questi sistemi assomigliano molto all’intelligenza umana “.
L’illusorio errore mnemonico ha anche portato la comunità dell’IA a nominare i benchmark di valutazione degli algoritmi in modi fuorvianti. Si consideri, ad esempio, il benchmark GLUE (General Language Understanding Evaluation) , sviluppato da alcune delle organizzazioni e istituzioni accademiche più apprezzate nel campo dell’IA. GLUE fornisce una serie di attività che aiutano a valutare come un modello linguistico può generalizzare le sue capacità oltre il compito per cui è stato addestrato. Ma contrariamente a quanto raccontano i media, se un agente di intelligenza artificiale ottiene un punteggio GLUE più alto di un essere umano, non significa che sia migliore nella comprensione del linguaggio rispetto agli umani.
“Sebbene le macchine possano sovraperformare gli esseri umani su questi parametri di riferimento particolari, i sistemi di intelligenza artificiale sono ancora lontani dal corrispondere alle capacità umane più generali che associamo ai nomi dei benchmark”, scrive Mitchell.
Un chiaro esempio di illusione mnemonica è un progetto del 2017 presso Facebook Artificial Intelligence Research, in cui gli scienziati hanno addestrato due agenti di intelligenza artificiale a negoziare su compiti basati su conversazioni umane. Nel loro post sul blog , i ricercatori hanno notato che “l’aggiornamento dei parametri di entrambi gli agenti ha portato alla divergenza dal linguaggio umano poiché gli agenti hanno sviluppato il proprio linguaggio per la negoziazione [enfasi mia]”.
Ciò ha portato a un flusso di articoli clickbait che mettevano in guardia sui sistemi di intelligenza artificiale che stavano diventando più intelligenti degli umani e comunicavano in dialetti segreti. Quattro anni dopo, i modelli linguistici più avanzati hanno ancora difficoltà a comprendere i concetti di base che la maggior parte degli esseri umani apprende in tenera età senza essere istruita.
AI senza un corpo
Può l’intelligenza esistere separatamente da una ricca esperienza fisica del mondo? Questa è una domanda su cui scienziati e filosofi si sono interrogati per secoli.
Una scuola di pensiero crede che l’intelligenza sia tutta nel cervello e possa essere separata dal corpo, nota anche come teoria del ” cervello in una vasca “. Mitchell lo chiama l’errore “L’intelligenza è tutto nel cervello”. Con gli algoritmi e i dati giusti, il pensiero va, possiamo creare un’IA che vive nei server e corrisponde all’intelligenza umana. Per i fautori di questo modo di pensare, in particolare quelli che supportano approcci basati sull’apprendimento profondo puro, raggiungere i cardini dell’IA generale sulla raccolta della giusta quantità di dati e sulla creazione di reti neurali sempre più grandi.
Nel frattempo, ci sono prove crescenti che questo approccio è destinato a fallire. “Un numero crescente di ricercatori sta mettendo in dubbio le basi del modello di elaborazione delle informazioni” tutto nel cervello “per la comprensione dell’intelligenza e per la creazione di intelligenza artificiale”, scrive.
Il cervello umano e animale si è evoluto insieme a tutti gli altri organi del corpo con l’obiettivo finale di migliorare le possibilità di sopravvivenza. La nostra intelligenza è strettamente collegata ai limiti e alle capacità del nostro corpo. E c’è un campo in espansione di intelligenza artificiale incorporata che mira a creare agenti che sviluppano abilità intelligenti interagendo con il loro ambiente attraverso diversi stimoli sensoriali.
Mitchell osserva che la ricerca neuroscientifica suggerisce che “le strutture neurali che controllano la cognizione sono riccamente collegate a quelle che controllano i sistemi sensoriali e motori e che il pensiero astratto sfrutta le” mappe “neurali basate sul corpo. diverse aree sensoriali del cervello influenzano i nostri pensieri consci e inconsci.
Mitchell sostiene l’idea che le emozioni, i sentimenti, i pregiudizi inconsci e l’esperienza fisica siano inseparabili dall’intelligenza. “Niente nella nostra conoscenza della psicologia o delle neuroscienze supporta la possibilità che la ‘pura razionalità’ sia separabile dalle emozioni e dai pregiudizi culturali che modellano la nostra cognizione e i nostri obiettivi”, scrive. “Invece, quello che abbiamo imparato dalla ricerca sulla cognizione incorporata è che l’intelligenza umana sembra essere un sistema fortemente integrato con attributi strettamente interconnessi, tra cui emozioni, desideri, un forte senso di individualità e autonomia e una comprensione del mondo basata sul buon senso. Non è affatto chiaro che questi attributi possano essere separati “.
Il buon senso nell’intelligenza artificiale
Lo sviluppo di un’IA generale richiede un adattamento alla nostra comprensione dell’intelligenza stessa. Stiamo ancora lottando per definire cos’è l’intelligenza e come misurarla negli esseri artificiali e naturali.
“È chiaro che per fare e valutare i progressi nell’intelligenza artificiale in modo più efficace, avremo bisogno di sviluppare un vocabolario migliore per parlare di ciò che le macchine possono fare”, scrive Mitchell. “E più in generale, avremo bisogno di una migliore comprensione scientifica dell’intelligenza in quanto si manifesta in diversi sistemi in natura”.
Un’altra sfida che Mitchell discute nel suo articolo è quella del buon senso, che descrive come “una sorta di ombrello per ciò che manca ai sistemi di IA all’avanguardia di oggi”.
Il buon senso include la conoscenza che acquisiamo sul mondo e la applichiamo ogni giorno senza troppi sforzi. Impariamo molto senza essere istruiti esplicitamente, esplorando il mondo quando siamo bambini. Questi includono concetti come spazio, tempo, gravità e proprietà fisiche degli oggetti. Ad esempio, un bambino impara in tenera età che quando un oggetto viene occluso dietro un altro, non è scomparso e continua ad esistere, oppure quando una palla rotola su un tavolo e raggiunge la sporgenza, dovrebbe cadere. Usiamo questa conoscenza per costruire modelli mentali del mondo, fare inferenze causali e prevedere gli stati futuri con discreta accuratezza.
Questo tipo di conoscenza manca nei sistemi di intelligenza artificiale odierni, il che li rende imprevedibili e affamati di dati. In effetti, le pulizie e la guida, le due applicazioni di intelligenza artificiale menzionate all’inizio di questo articolo, sono cose che la maggior parte degli umani impara attraverso il buon senso e un po ‘di pratica.
Il buon senso include anche fatti di base sulla natura e la vita umana, cose che omettiamo nelle nostre conversazioni e nella scrittura perché sappiamo che i nostri lettori e ascoltatori le conoscono. Ad esempio, sappiamo che se due persone stanno “parlando al telefono”, significa che non sono nella stessa stanza. Sappiamo anche che se “John ha raggiunto lo zucchero”, significa che c’era un contenitore con lo zucchero al suo interno da qualche parte vicino a John. Questo tipo di conoscenza è fondamentale per aree come l’elaborazione del linguaggio naturale.
“Nessuno sa ancora come catturare tali conoscenze o abilità nelle macchine. Questa è l’attuale frontiera della ricerca sull’IA e un modo incoraggiante per andare avanti è attingere a ciò che si sa sullo sviluppo di queste capacità nei bambini piccoli “, scrive Mitchell.
Sebbene non conosciamo ancora le risposte a molte di queste domande, un primo passo verso la ricerca di soluzioni è essere consapevoli dei nostri pensieri errati. “Comprendere questi errori e le loro sottili influenze può indicare direzioni per la creazione di sistemi di IA più robusti, affidabili e forse effettivamente intelligenti “, scrive Mitchell.
Ben Dickson è un ingegnere del software e il fondatore di TechTalks, un blog che esplora i modi in cui la tecnologia risolve e crea problemi.