Sulle macchine pensanti, sul machine learning e su come l’IA ha assunto le statistiche
 
Sessantacinque anni fa, Arthur Samuel è andato in TV per mostrare al mondo come l’IBM 701 gioca a dama. È stato intervistato in un telegiornale mattutino in diretta, seduto in remoto al 701, con Will Rogers Jr. presso lo studio televisivo, insieme a un esperto di dama che ha giocato con il computer per circa un’ora. Tre anni dopo, nel 1959, Samuel pubblicò ” Alcuni studi sull’apprendimento automatico utilizzando il gioco della dama ” sull’IBM Journal of Research and Development , coniando il termine “apprendimento automatico”. Lo definì come la “programmazione di un computer digitale per comportarsi in un modo che, se fatto da esseri umani o animali, sarebbe descritto come coinvolgente il processo di apprendimento”.

 

Pochi mesi dopo l’apparizione televisiva di Samuel, dieci scienziati informatici si sono riuniti a Dartmouth, NH, per il primo seminario sull’intelligenza artificiale, definito un anno prima da John McCarthy nella proposta del seminario come “fare in modo che una macchina si comporti in modi che essere definito intelligente se un essere umano si comportasse così “.

In alcuni circoli della disciplina emergente dell’informatica, non c’erano dubbi sulla natura umana delle macchine che stavano creando. Già nel 1949, il pioniere del computer Edmund Berkeley scrisse in  Giant Brains or Machines that Think: “Recentemente ci sono state molte notizie su strane macchine giganti che possono gestire le informazioni con grande velocità e abilità … Queste macchine sono simili a ciò che un il cervello sarebbe se fosse fatto di hardware e cavi invece che di carne e nervi… Una macchina può gestire le informazioni; può calcolare, concludere e scegliere; può eseguire operazioni ragionevoli con le informazioni. Una macchina, quindi, può pensare “.

 

Maurice Wilkes, un importante sviluppatore di uno di quei cervelli giganti, ribatté nel 1953: “La definizione di Berkeley di cosa si intende per macchina pensante sembra essere così ampia da perdere il punto essenziale di interesse nella domanda: ‘Le macchine possono pensare? ‘” Wilkes ha attribuito questo pensiero umano non molto buono a “un desiderio di credere che una macchina possa essere qualcosa di più di una macchina”. Nello stesso numero di Proceeding of the IRE che includeva l’articolo di Wilkes, Samuel pubblicò “ Computing Bit by Bit or Digital Computers Made Easy. ” Reagendo a quello che chiamò “il confuso sensazionalismo della stampa popolare riguardo alla capacità di pensare dei calcolatori digitali esistenti”, scrisse: “Il calcolatore digitale può sollevare l’uomo e lo fa da molti dei gravosi dettagli dei calcoli numerici e delle relative operazioni logiche , ma forse è più una questione di definizione che di fatto se questo costituisca pensiero”.

La posizione educata ma chiara di Samuel ha portato Marvin Minsky nel 1961 a individuarlo, secondo Eric Weiss , “come uno dei pochi leader nel campo dell’intelligenza artificiale che credeva che i computer non potessero pensare e probabilmente non lo avrebbero mai fatto”. In effetti, ha perseguito il suo hobby di una vita di sviluppare programmi per computer per giocare a dama e l’interesse professionale per l’apprendimento automatico non per il desiderio di giocare a fare Dio ma a causa della traiettoria specifica e delle coincidenze della sua carriera. Dopo aver lavorato per 18 anni presso i Bell Telephone Laboratories ed essere diventato un’autorità riconosciuta a livello internazionale sui tubi a microonde, ha deciso all’età di 45 anni di andare avanti, poiché era certo, afferma Weiss nella sua recensione della vita e del lavoro di Samuel, che “i tubi a vuoto presto saranno essere sostituito da qualcos’altro”.

L’Università dell’Illinois venne a chiamarlo, chiedendogli di rivitalizzare il loro programma di ricerca per laureati in EE. Nel 1948, il progetto per costruire il primo computer dell’Università stava finendo i soldi. Samuel pensava (come ricordava in un’autobiografia inedita citata da Weiss) che “dovrebbe essere facilissimo programmare un computer per giocare a dama” e che se il loro programma potesse battere un campione del mondo di dama, l’attenzione che genererebbe genererebbe anche i fondi richiesti.

L’anno successivo, Samuel iniziò il suo incarico di 17 anni in IBM, lavorando come “ingegnere senior” nel team che sviluppava l’IBM 701, il primo computer scientifico IBM prodotto in serie. L’architetto capo dell’intera serie IBM 700 è stato Nathaniel Rochester, in seguito uno dei partecipanti al workshop sull’intelligenza artificiale di Dartmouth. Rochester stava cercando di decidere la lunghezza delle parole e la struttura dell’ordine dell’IBM 701 e Samuel decise di riscrivere il suo programma di gioco della dama utilizzando la struttura dell’ordine che Rochester stava proponendo. Nella sua autobiografia, Samuel ha ricordato che “Avevo un po ‘di paura che tutti in IBM considerassero un programma di gioco troppo banale, così ho deciso che mi sarei concentrato sugli aspetti di apprendimento del programma. Così, più o meno per caso, Sono diventato una delle prime persone a fare una seria programmazione per l’IBM 701 e certamente uno dei primissimi a lavorare nel campo generale in seguito diventato noto come “intelligenza artificiale”. In effetti, sono rimasto così incuriosito da questo problema generale di scrivere un programma che sembrerebbe mostrare intelligenza che doveva occupare i miei pensieri quasi ogni momento libero durante l’intera durata del mio impiego presso IBM e in effetti per alcuni anni dopo “.

Ma nei primi giorni dell’informatica, IBM non voleva alimentare i timori popolari che l’uomo stesse perdendo terreno a causa delle macchine, “quindi l’azienda non ha parlato pubblicamente di intelligenza artificiale”, osservò Samuel in seguito. I venditori non avrebbero dovuto spaventare i clienti con speculazioni sui risultati futuri del computer. Così IBM, tra le altre attività volte a dissipare l’idea che i computer fossero più intelligenti degli umani, ha sponsorizzato il film Desk Set, con un “ingegnere dei metodi” (Spencer Tracy) che installa l’immaginario e minaccioso “cervello elettronico” EMERAC, e una bibliotecaria aziendale (Katharine Hepburn) che dice ai suoi ansiosi colleghi del dipartimento di ricerca: “Non possono costruire una macchina per fare il nostro lavoro, ci sono troppi riferimenti incrociati in questo posto. ” Alla fine del film, vince sia una partita con il computer che il cuore dell’ingegnere.

Nel suo articolo del 1959, Samuel descrisse il suo approccio al machine learning come particolarmente adatto a compiti molto specifici, a differenza dell'”approccio Neural-Net”, che riteneva potesse portare allo sviluppo di macchine per l’apprendimento di uso generale. Il programma di Samuel ha cercato nella memoria del computer per trovare esempi di posizioni a scacchiera e ha selezionato le mosse che avevano avuto successo in precedenza. “Il computer gioca guardando avanti alcune mosse e valutando le posizioni del tabellone risultanti come farebbe un giocatore umano”, ha scritto Samuel.

Il suo approccio all’apprendimento automatico “funzionerebbe ancora abbastanza bene come descrizione di ciò che è noto come ‘apprendimento per rinforzo’, uno dei panieri di tecniche di apprendimento automatico che ha rivitalizzato il campo dell’intelligenza artificiale negli ultimi anni”, ha scritto Alexis Madrigal in un Indagine 2017 sui programmi per computer che giocano a dama. “Uno degli uomini che ha scritto il libro  Reinforcement Learning , Rich Sutton, ha definito la ricerca di Samuel il ‘primo’ lavoro che ‘ora è visto come direttamente rilevante’ per l’attuale impresa di intelligenza artificiale.”

L’attuale impresa di intelligenza artificiale è più orientata a favore delle reti neurali artificiali (o “apprendimento profondo”) che dell’apprendimento per rinforzo, sebbene DeepMind di Google abbia notoriamente combinato i due approcci nel suo programma di gioco Go che ha battuto con successo il maestro di Go Lee Sedol in una partita di cinque partite. partita nel 2016.

Già popolare tra gli informatici ai tempi di Samuel (nel 1951, Marvin Minsky e Dean Edmunds costruirono SNARC – Stochastic Neural Analog Reinforcement Calculator – la prima rete neurale artificiale, utilizzando 3000 tubi a vuoto per simulare una rete di 40 neuroni), l’approccio delle reti neurali era ispirato da un  articolo del 1943  di Warren S. McCulloch e Walter Pitts in cui descrivevano reti di “neuroni” artificiali idealizzati e semplificati e come potrebbero svolgere semplici funzioni logiche, portando alla descrizione popolare (e molto fuorviante) delle odierne reti neurali artificiali basata sull’intelligenza artificiale come “imitazione del cervello”.

Nel corso degli anni, la popolarità delle “reti neurali” è andata su e giù per una serie di cicli di hype, a partire dal  Perceptron , una rete neurale artificiale a 2 strati che è stata considerata dalla Marina degli Stati Uniti, secondo un rapporto del New York Times del 1958 , per essere “l’embrione di un computer elettronico che .. potrà camminare, parlare, vedere, scrivere, riprodursi ed essere cosciente della sua esistenza”. Oltre a non soddisfare queste elevate aspettative, le reti neurali hanno sofferto di una forte concorrenza da parte di una crescente coorte di scienziati informatici (incluso Minsky) che hanno preferito la manipolazione dei simboli piuttosto che le statistiche computazionali come percorso migliore per creare una macchina simile all’uomo.

Le aspettative gonfiate che incontravano il limite della disillusione, indipendentemente dall’approccio adottato, hanno portato ad almeno due periodi di cupo “AI Winter”. Ma con l’invenzione e l’applicazione di successo della ” backpropagation ” come un modo per superare i limiti delle semplici reti neurali, l’analisi statistica sofisticata era di nuovo  in ascesa , ora abilmente etichettata come “apprendimento profondo”. Nel 1988, R. Colin Johnson e Chappell Brown pubblicarono Cognizers: Neural Networks and Machine That Think, proclamando che le reti neurali “possono effettivamente imparare a riconoscere gli oggetti e comprendere il parlato proprio come il cervello umano e, soprattutto, non avranno bisogno delle regole, della programmazione o dei costosi servizi di ingegneria della conoscenza richiesti dai sistemi di intelligenza artificiale convenzionali … I cognizzatori potrebbero benissimo rivoluzionare la nostra società e porteranno inevitabilmente a una nuova comprensione della nostra cognizione. “

Johnson e Brown hanno previsto che “già nei prossimi due anni, le reti neurali saranno lo strumento preferito per analizzare i contenuti di un grande database”. Questa previsione – e senza dubbio simili nella stampa popolare e nelle riviste professionali – deve aver lanciato l’allarme tra coloro che hanno fatto questo tipo di analisi per vivere nel mondo accademico e nelle grandi aziende, non avendo idea di cosa stessero parlando gli informatici .  

In “ Reti Neurali e Modelli Statistici””, Warren Sarle ha spiegato nel 1994 ai suoi colleghi statistici preoccupati e confusi che le reti neurali artificiali dal suono minaccioso “non sono altro che regressioni non lineari e modelli discriminanti che possono essere implementati con software statistico standard … ] sono in grado di elaborare grandi quantità di dati e fare previsioni a volte sorprendentemente accurate; questo non li rende “intelligenti” nel senso comune del termine. Le reti neurali artificiali “imparano” più o meno allo stesso modo in cui molti algoritmi statistici fanno la stima, ma di solito molto più lentamente degli algoritmi statistici. Se le reti neurali artificiali sono intelligenti, anche molti metodi statistici devono essere considerati intelligenti».

Sarle ha fornito ai suoi colleghi un pratico dizionario che traduce i termini usati dagli “ingegneri neurali” nel linguaggio degli statistici (ad esempio, le “caratteristiche” sono “variabili”). In previsione dell’odierna “scienza dei dati” (un assalto più recente guidato da programmatori di computer) e delle previsioni di algoritmi che sostituiscono gli statistici (e persino gli scienziati), Sarle ha rassicurato i suoi colleghi statistici che nessuna “scatola nera” può sostituire l’intelligenza umana: “Ingegneri neurali vogliono che le loro reti siano scatole nere che non richiedono alcun intervento umano: dati in entrata, previsioni fuori. Il clamore del marketing afferma che le reti neurali possono essere utilizzate senza esperienza e apprendere automaticamente tutto ciò che è necessario; questo, ovviamente, non ha senso. Fare una semplice regressione lineare richiede una quantità non banale di esperienza statistica.

In una nota in calce alla sua menzione delle reti neurali nel suo articolo del 1959, Samuel ha citato Warren S. McCulloch che “ha paragonato il computer digitale al sistema nervoso di un verme piatto” e ha dichiarato: “Estendere questo confronto alla situazione in discussione sarebbe essere ingiusto nei confronti del verme poiché il suo sistema nervoso è in realtà piuttosto altamente organizzato rispetto a [le reti neurali artificiali più avanzate del giorno]”. Nel 2019, il principale ricercatore di intelligenza artificiale di Facebook e vincitore del Turing Award Yann LeCun ha dichiarato che “I nostri migliori sistemi di intelligenza artificiale hanno meno buon senso di un gatto domestico”. Nei sessant’anni da quando Samuel ha pubblicato per la prima volta il suo lavoro di apprendimento automatico, l’intelligenza artificiale è passata dall’essere non intelligente come un verme piatto ad avere meno buon senso di un gatto domestico.

 

 
 

Di ihal