Uno scienziato informatico sostiene che l’intelligenza artificiale sta progredendo più lentamente di quanto l’hype suggerisca
MMelanie Mitchell ha scritto il suo nuovo libro, Artificial Intelligence: Una guida per gli esseri umani di pensare, perché era confuso circa i progressi realmente è stato fatto in AI Voleva “per capire il vero stato delle cose”, scrive.
È un sollievo apprendere della sua ambivalenza perché è lei stessa una ricercatrice di intelligenza artificiale. È professore di informatica alla Portland State University e copresidente del consiglio scientifico del Santa Fe Institute, un rinomato centro di ricerca multidisciplinare. Se Mitchell potrebbe essere perplesso su dove si trova l’IA, perdona il resto di noi per essere sconcertato o semplicemente sbagliato.
Come osserva Mitchell, molte narrazioni trionfali di AI stanno fluttuando. In questi resoconti, recenti scoperte nella visione artificiale, nel riconoscimento vocale, nel gioco e in altri aspetti dell’apprendimento automatico sono indicazioni che l’intelligenza artificiale potrebbe superare la competenza umana in una vasta gamma di compiti nei prossimi decenni. Alcune persone trovano quella prospettiva meravigliosa; altri temono che i computer “sovrumani” possano decidere di non aver bisogno di noi in giro e di avere il potere di fare qualcosa al riguardo.
“O siamo a breve distanza dalla” vera “IA, oppure è lontana secoli.”
Ma come dimostra anche Mitchell, anche i sistemi di IA più capaci di oggi hanno limiti cruciali. Sono bravi solo in compiti ben definiti e completamente all’oscuro del mondo oltre. Trovano correlazioni nei dati senza riguardo per ciò che significa, quindi le loro previsioni possono essere pericolosamente inaffidabili. Non hanno senso comune.
“O sono stati fatti molti progressi, o quasi nessuno”, scrive Mitchell. “O siamo a breve distanza dalla” vera “IA, oppure è lontana secoli.”
Ciò che rende questo libro memorabile e istruttivo è come Mitchell risolve la domanda. Le sue spiegazioni paziente sulle odierne tecniche di intelligenza artificiale danno l’impressione che la vera intelligenza artificiale rimanga molto lontana. Non solo i computer hanno bisogno di cervelli migliori, suggerisce, ma probabilmente hanno anche bisogno di corpi migliori.
MMitchell offre un primer straordinariamente chiaro e leggibile sulle reti neurali artificiali: la tecnologia al centro dei recenti progressi nel riconoscimento delle immagini, nella traduzione linguistica e nella guida autonoma. Le reti neurali furono utilizzate in alcuni dei primi tentativi di costruire l’IA negli anni ’50 e ’60. Sono caduti in disgrazia perché sembravano un vicolo cieco, un approccio con un valore limitato. Ma questo è cambiato circa un decennio fa mentre i progressi nel potere computazionale rendevano possibile addestrare le reti neurali con un metodo ad alta intensità di dati chiamato “apprendimento profondo”.
Per seguire la descrizione delle reti neurali di Mitchell, non è necessario conoscere la matematica elaborata, ma mostra che la matematica è principalmente ciò che sono, il che spiega sia la loro abilità che i loro difetti. Un tipo di rete neurale che è particolarmente utile per identificare il contenuto delle immagini dipende da un calcolo matematico chiamato “convoluzione”. Una versione utilizzata per gestire il testo si basa sulla capacità di un computer di rappresentare un aspetto statistico del linguaggio – con quale frequenza le parole tendono apparire insieme in frasi – in “vettori” complessi che attraversano centinaia di dimensioni.
È impressionante che le persone abbiano quantificato così tanti aspetti del mondo che i computer possono sfornare. È anche straordinario che questi metodi abbiano applicazioni così diverse, come il rilevamento di tumori, la guida automatizzata e il filtro dello spam. Ma i nuovi usi intelligenti per i grandi calcolatori non li conferiscono necessariamente un’intelligenza paragonabile alla nostra . Come sottolinea Mitchell, far funzionare bene le reti neurali convoluzionali “richiede molta ingegnosità umana”.
Apprezzare il fatto che i sistemi di apprendimento automatico siano essenzialmente cavalli da lavoro statistici rende ovvio il motivo per cui sono così vulnerabili a inesattezze, lacune e altre carenze nei dati che vengono alimentati. Non c’è da meravigliarsi se una rete neurale non riesce a registrare il volto di una persona di colore se è stata addestrata su immagini che mostrano principalmente bianchi. Non dovrebbe essere una sorpresa quando un’auto a guida autonoma non riesce a riconoscere un segnale di stop che ha alcuni adesivi ma è ovviamente (per gli umani) un segnale di stop.
Fortunatamente, questo tipo di problemi ha suscitato molte discussioni fruttuose sulle ramificazioni sociali della tecnologia di riconoscimento facciale e del processo decisionale automatizzato. Il libro del 2018 Artificial Unintelligence: How Computers fraintende il mondo di Meredith Broussard, professore associato di giornalismo sui dati all’università di New York, sostiene in modo convincente che, indipendentemente dal fatto che tu lo chiami “AI”, i computer dovrebbero comunque essere considerati semplici strumenti per gli esseri umani curiosi che dovrebbe rimanere sempre nel giro.
Ma mentre Mitchell è appena la prima a sottolineare le debolezze dei sistemi di apprendimento automatico, aggiunge un ulteriore livello alla critica spiegando che anche quando sono al meglio, i computer potrebbero non essere buoni come pensi. Negli ultimi anni, i ricercatori hanno sviluppato reti neurali che, sostengono, soddisfano o superano le prestazioni umane quando si tratta di identificare oggetti in foto o video. È stato annunciato nelle notizie come un altro esempio dell’inevitabilità della resistenza è inutile della superiorità della macchina.
Mitchell sottolinea che il benchmark in questione era un test basato su un vasto database di immagini chiamato ImageNet. Nel 2017, il miglior sistema informatico ha classificato le immagini di ImageNet con un’accuratezza del “5 top” del 98%, presumibilmente migliore del tasso umano del 95%.
Cos’è quella siepe di “top-5”? Significa che la classificazione corretta per un oggetto è stata una delle cinque ipotesi principali della macchina. Come scrive Mitchell: “Se, data l’immagine di una palla da basket, la macchina produce” palla da croquet “,” bikini “,” facocero “,” pallacanestro “e” furgone in movimento “, in questo ordine, è considerata corretta.” È comprensibile il motivo per cui esiste la metrica top-5: se un’immagine mostra più di un oggetto, è utile sapere se la macchina sta rilevando qualcuno di essi. Ma indebolisce la pretesa di abilità estreme. Mitchell afferma che la migliore precisione tra i primi 1 – quando la macchina ha messo la categoria corretta in cima alla sua lista – era solo dell’82% nel 2017.
Per quanto riguarda l’affermazione secondo cui gli umani sono precisi al 95%, Mitchell mostra che i dati a supporto sono fragili. Due persone hanno provato una parte della sfida ImageNet per un progetto di ricerca pubblicato nel 2015 . La persona che ci ha dedicato più tempo, Andrej Karpathy, che ora è direttore AI di Tesla, ha studiato una serie etichettata di 500 immagini come “dati di allenamento” e poi ha suddiviso 1.500 immagini senza etichetta in categorie. Con la massima precisione come metrica, ha sbagliato il 5%. E ora, quella figura viene utilizzata come segno della performance umana.
Non importa che il suo tasso di errore probabilmente sarebbe stato inferiore se non fosse stato per le stranezze di questo test specifico. Karpathy ha scritto che circa un quarto degli errori commessi da lui e dall’altro soggetto del test sono sorti non perché erano all’oscuro delle immagini che stavano vedendo, ma perché non sapevano o non ricordavano alcune delle etichette esatte utilizzate in IMAGEnet.
Ulteriori questioni confuse, “Nessuno, per quanto ne so, ha riportato un confronto tra macchine e umani con la massima precisione”, scrive Mitchell.
Con la loro velocità e pazienza senza fine, i computer sono ideali per il riconoscimento delle immagini in molte applicazioni. Sono sicuramente più precisi degli umani in alcune situazioni. Ma è molto più di questo dire. “Il riconoscimento degli oggetti non è ancora vicino all’essere” risolto “dall’intelligenza artificiale”, scrive Mitchell.
“Riesco a malapena a immaginare quali innovazioni avremmo bisogno per costruire una macchina del genere.”
OOno dei temi più caldi in AI ora è come ottenere le macchine non solo di rilevare correlazioni statistiche nei dati, ma anche per capire, ad un certo livello, il significato di quello che stanno elaborazione. Come Mitchell, i ricercatori della New York University Gary Marcus ed Ernest Davis affermano che senza tali miglioramenti, l’intelligenza artificiale non sarebbe “sicura, intelligente o affidabile”. Nel loro nuovo libro Riavvio di AI: Building Intelligence Artificial We Can Trust , Marcus e Davis dicono che le persone sono state ingannate nel pensare che i computer siano più nitidi di quanto non siano a causa di un “gap di creduloneria”.
“Non possiamo fare a meno di pensare alle macchine in termini cognitivi (” Pensa di aver cancellato il mio file “), non importa quanto siano semplici le regole che le macchine potrebbero effettivamente seguire”, scrivono.
Nella speranza di rendere le macchine meno semplici, molti ricercatori stanno rivisitando i vecchi metodi di codifica dei computer con logica e buon senso. Mitchell, per esempio, descrive i suoi sforzi per convincere i computer a ragionare per analogia. Se vuoi che un computer riconosca le immagini che raffigurano “camminare un cane”, l’approccio di base ora è quello di mostrargli migliaia di immagini di dog-walking e poi fidarti che le cose comuni in quelle immagini – cane, guinzaglio, mano, ecc. – innesca un segnale positivo quando la macchina vede immagini future di dog walking. Tuttavia, probabilmente soffierà in casi insoliti di dog walking. Mitchell mostra alcuni esempi, come una foto di qualcuno che cammina con un cane mentre va in bicicletta e uno di un cane con un guinzaglio in bocca.
Lavorare in questo modo è scrupoloso e lento. E anche se riuscisse – se un computer potesse capire a un certo livello che “camminare un cane” può assumere molte forme – quanto sarebbe ricca questa comprensione se la macchina non incontrasse mai un cane per sé?
Quando avevo circa 6 anni, stavo andando in bicicletta su un marciapiede vicino a casa mia e mi sono fermato a guardare (e forse lanciare) un mucchio di palline di semi appuntite da un albero di gomma dolce . Improvvisamente, qualcuno aprì un cancello vicino a una casa dall’altra parte della strada, e uscì un cane marrone che esitò per un secondo o due prima di balzare dritto e mordicchiandomi, strappando il sedile dei miei pantaloni di velluto a coste. Il ricordo contribuisce alla mia comprensione di innumerevoli aspetti dell’esperienza: sorpresa, paura e dolore; l’imprevedibilità di alcuni cani; la stranezza esotica delle palline di semi di gomma dolce. È piuttosto superficiale rispetto a un computer dire che non è sempre un idioma quando la gente dice qualcosa nel culo.
I filosofi e altri scettici dell’IA hanno a lungo sostenuto che solo così tanto può essere insegnato a un cervello elettronico disincarnato in una scatola. Molti ricercatori dell’IA hanno incolpato tali dubbi su “una sorta di misticismo residuo” – una “fede non scientifica in un’essenza mentale simile all’anima”, come ha scritto la scienziata cognitiva Andy Clark in un libro del 1997, Essere lì: mettere cervello, corpo e Mondo di nuovo insieme . Ma l’idea che l’intelligenza richieda un corpo suona piuttosto bene se si considera che i bambini striscianti afferrano rapidamente i concetti di base mentre i computer nei data center richiedono enormi quantità di elettricità per assorbire una cosa.
Mitchell sembra essere riluttante a raggiungere la posizione degli scettici. “Dopo aver lottato con l’IA per molti anni, trovo l’argomento incarnazione sempre più avvincente”, scrive.
Cosa ci vorrà quindi per produrre un robot che si muove in tutto il mondo con approfondimenti sulle proprie azioni e su quelle delle persone, degli animali e delle altre macchine con cui interagisce? “Riesco a malapena a immaginare”, scrive, “di quali innovazioni avremmo bisogno per costruire una macchina del genere”.