LE AUTO A GUIDA AUTOMATICA SONO DIRETTE VERSO UN POSTO DI BLOCCO AI
Gli scettici dicono che la piena autonomia potrebbe essere più lontana di quanto ammetta l’industria
Se credi agli amministratori delegati, una macchina completamente autonoma potrebbe essere a pochi mesi di distanza. Nel 2015 , Elon Musk ha predetto una Tesla completamente autonoma entro il 2018; così ha fatto Google . Il sistema Level 4 di Delphi e MobileEye è attualmente previsto per il 2019 , lo stesso anno in cui Nutonomy prevede di dispiegare migliaia di taxi senza conducente sulle strade di Singapore . GM metterà in produzione un’auto completamente autonoma nel 2019, senza il volante o la capacità di intervento dei conducenti. Ci sono soldi veri dietro queste previsioni, le scommesse fatte sul presupposto che il software sarà in grado di raggiungere l’hype.
Sul suo volto, la piena autonomia sembra più vicina che mai. Waymo sta già testando le auto su strade limitate ma pubbliche in Arizona. Tesla e una miriade di altri imitatori vendono già una forma limitata di pilota automatico, contando sui guidatori per intervenire se succede qualcosa di inaspettato. Ci sono stati alcuni incidenti, alcuni mortali, ma finché i sistemi continuano a migliorare, la logica va, non possiamo essere così lontani dal non dover intervenire affatto.
Ma il sogno di un’automobile completamente autonoma potrebbe essere più lontano di quanto pensiamo. C’è una crescente preoccupazione tra gli esperti di IA che potrebbero essere anni, se non decenni, prima che i sistemi di autoassistenza possano evitare in modo affidabile gli incidenti. Mentre i sistemi auto-addestrati si confrontano con il caos del mondo reale, esperti come Gary Marcus della NYU si preparano a una dolorosa ricalibrazione delle aspettative, una correzione a volte definita “inverno AI”. Questo ritardo potrebbe avere conseguenze disastrose per le aziende che operano in modo autonomo tecnologia, mettendo la piena autonomia fuori dalla portata di un’intera generazione.
“LE AUTO SENZA CONDUCENTE SONO COME UN ESPERIMENTO SCIENTIFICO IN CUI NON CONOSCIAMO LA RISPOSTA”
È facile capire perché le aziende automobilistiche sono ottimiste riguardo all’autonomia. Negli ultimi dieci anni, l’apprendimento approfondito – un metodo che utilizza algoritmi di apprendimento automatico a strati per estrarre informazioni strutturate da enormi set di dati – ha portato a progressi quasi impensabili nell’IA e nell’industria tecnologica. Alimenta la Ricerca Google, il feed delle notizie di Facebook, gli algoritmi conversazionali del parlato in testo e i sistemi di Go-playing dei campioni. Al di fuori di Internet, utilizziamo il deep learning per rilevare i terremoti , predire le malattie cardiache e segnalare comportamenti sospetti su un feed fotografico , insieme a innumerevoli altre innovazioni che altrimenti sarebbero state impossibili.
Tuttavia, l’apprendimento approfondito richiede enormi quantità di dati di allenamento per funzionare correttamente, incorporando quasi tutti gli scenari che l’algoritmo incontrerà. Sistemi come Google Immagini, ad esempio, sono ottimi per riconoscere gli animali a patto che abbiano dati di addestramento per mostrare loro come appare ogni animale. Marcus descrive questo tipo di compito come “interpolazione”, esaminando tutte le immagini etichettate come “ocelot” e decidendo se la nuova immagine appartiene al gruppo.
Gli ingegneri possono essere creativi nel modo in cui i dati provengono e in che modo sono strutturati, ma pone un limite estremo alla portata di un determinato algoritmo. Lo stesso algoritmo non può riconoscere un ocelot a meno che non si vedano migliaia di immagini di un ocelot – anche se si vedono immagini di gattini e giaguari, e sa che gli ocelot sono da qualche parte nel mezzo. Quel processo, chiamato “generalizzazione”, richiede un diverso insieme di abilità.
Per molto tempo, i ricercatori hanno pensato di poter migliorare le capacità di generalizzazione con i giusti algoritmi, ma recenti ricerche hanno dimostrato che l’apprendimento profondo convenzionale è ancora peggio generalizzato di quanto pensassimo. Uno studio ha rilevato che i sistemi di apprendimento in profondità convenzionali hanno difficoltà a generalizzare su diversi fotogrammi di un video, etichettando lo stesso orso polare come un babbuino, mangusta o donnola a seconda di piccoli cambiamenti in background. Con ogni classificazione basata su centinaia di fattori aggregati, anche piccole modifiche alle immagini possono cambiare completamente il giudizio del sistema, qualcosa che altri ricercatori hanno sfruttato nei set di dati contraddittori .
Marcus punta alla follia dei bot di chat come l’esempio più recente di hype che si scontra con il problema della generalizzazione. “Ci avevano promesso ai robot di chat nel 2015”, dice, “ma non sono buoni perché non si tratta solo di raccogliere dati”. Quando parli con una persona online, non vuoi solo che riprendere le conversazioni precedenti. Vuoi che rispondano a ciò che stai dicendo, attingendo a più ampie capacità di conversazione per produrre una risposta unica per te. L’apprendimento approfondito non poteva fare quel tipo di chat bot. Una volta sbiadito il clamore iniziale, le aziende hanno perso fiducia nei loro progetti di chat bot, e sono ancora in pochissimi in sviluppo.
Ciò lascia Tesla e le altre società di autonomia con una domanda spaventosa: le auto a guida autonoma continueranno a migliorare, come la ricerca di immagini, il riconoscimento vocale e le altre storie di successo dell’IA? O si imbatteranno nel problema della generalizzazione come i bot di chat? L’autonomia è un problema di interpolazione o un problema di generalizzazione? Quanto è imprevedibile la guida, davvero?
Potrebbe essere troppo presto per saperlo. “Le auto senza conducente sono come un esperimento scientifico in cui non conosciamo la risposta”, afferma Marcus. Non siamo mai stati in grado di automatizzare la guida a questo livello prima, quindi non sappiamo che tipo di compito sia. Nella misura in cui riguarda l’identificazione di oggetti familiari e le seguenti regole, le tecnologie esistenti dovrebbero essere all’altezza del compito. Ma Marcus è preoccupato che guidare in scenari rischiosi possa essere più complicato di quanto il settore voglia ammettere. “Nella misura in cui accadono cose nuove e sorprendenti, non è una buona cosa per l’apprendimento profondo”.
“LA SICUREZZA NON RIGUARDA SOLO LA QUALITÀ DELLA TECNOLOGIA AI”
I dati sperimentali che abbiamo provengono da rapporti di incidenti pubblici, ognuno dei quali offre qualche ruga insolita. Un incidente fatale del 2016 ha visto una Model S guidare a tutta velocità nella parte posteriore di un rimorchio bianco, confuso dall’elevata altezza del rimorchio e dal riflesso luminoso del sole. A marzo , un incidente Uber che ha guidato da solo ha ucciso una donna che spingeva una bicicletta, dopo essere emersa da un passaggio pedonale non autorizzato. Secondo il rapporto NTSB , il software di Uber ha identificato erroneamente la donna come un oggetto sconosciuto, quindi un veicolo, e infine come una bicicletta, aggiornando le sue proiezioni ogni volta. In un incidente in California , un modello X si è diretto verso una barriera e ha accelerato nei momenti prima dell’impatto, per ragioni che rimangono poco chiare.
Ogni incidente sembra un caso limite, il tipo di cose che gli ingegneri non potevano prevedere in anticipo. Ma quasi ogni incidente automobilistico comporta una sorta di circostanza imprevista, e senza il potere di generalizzare, le auto a guida autonoma dovranno affrontare ciascuno di questi scenari come se fosse la prima volta. Il risultato sarebbe una serie di incidenti di fortuna che non diventano meno comuni o meno pericolosi col passare del tempo. Per gli scettici, una svolta attraverso i rapporti di disimpegno manuale mostra che lo scenario è già ben avviato, con progressi che già raggiungono un plateau.
Il fondatore di Drive.AI Andrew Ng, ex dirigente Baidu e uno dei più importanti sostenitori del settore, sostiene che il problema è meno di costruire un sistema di guida perfetto che allenare i passanti ad anticipare il comportamento di guida autonoma. In altre parole, possiamo rendere le strade sicure per le auto anziché viceversa. Come esempio di caso imprevedibile, gli ho chiesto se pensava che i sistemi moderni potessero gestire un pedone su un pogo stick, anche se non ne avevano mai visto uno prima. “Penso che molti team AV possano gestire un utente di stick di pogo su strisce pedonali”, mi ha detto Ng. “Detto questo, rimbalzare su un pogo stick nel bel mezzo di un’autostrada sarebbe davvero pericoloso.”
“Piuttosto che costruire l’intelligenza artificiale per risolvere il problema del pogo stick, dovremmo collaborare con il governo per chiedere alle persone di essere lecite e premurose”, ha detto. “La sicurezza non riguarda solo la qualità della tecnologia AI.”
“QUESTO NON È UN PROBLEMA FACILMENTE ISOLATO”
L’apprendimento profondo non è l’unica tecnica di intelligenza artificiale e le aziende stanno già esplorando alternative. Sebbene le tecniche siano strettamente protette all’interno dell’industria (basti guardare la recente causa intentata da Waymo contro Uber), molte aziende si sono spostate sull’IA basata su regole, una tecnica più vecchia che consente agli ingegneri di codificare comportamenti o logica specifici in un sistema altrimenti autodiretto. Non ha la stessa capacità di scrivere i propri comportamenti solo studiando i dati, che è ciò che rende l’apprendimento profondo così eccitante, ma permetterebbe alle aziende di evitare alcuni dei limiti dell’apprendimento profondo. Ma con i compiti di base della percezione ancora profondamente plasmati da tecniche di apprendimento approfondito, è difficile dire con quanta efficienza gli ingegneri possono mettere in quarantena potenziali errori.
Ann Miura-Ko, una venture capitalist che fa parte del consiglio di amministrazione di Lyft, afferma che una parte del problema sono le grandi aspettative per le auto autonome stesse, classificando qualcosa di meno della piena autonomia come un fallimento. “Aspettarsi che passino dallo zero al livello cinque è un disallineamento nelle aspettative più che un fallimento della tecnologia”, afferma Miura-Ko. “Vedo tutti questi micro-miglioramenti come caratteristiche straordinarie nel viaggio verso la piena autonomia.”
Tuttavia, non è chiaro per quanto tempo le auto che guidano da soli possano rimanere nel loro limbo corrente. I prodotti semi-autonomi come l’autopilota di Tesla sono abbastanza intelligenti da gestire la maggior parte delle situazioni, ma richiedono l’intervento umano se succede qualcosa di troppo imprevedibile. Quando qualcosa va storto, è difficile sapere se è la colpa della macchina o dell’autista. Per alcuni critici , quell’ibrido è probabilmente meno sicuro di un guidatore umano, anche se gli errori sono difficili da incolpare interamente sulla macchina. Uno studio della Rand Corporation stimò che le auto a guida autonoma avrebbero dovuto percorrere 275 milioni di miglia senza una fatalità per dimostrare di essere al sicuro come i conducenti umani. La prima morte collegata al pilota automatico di Tesla è arrivata a circa 130 milioni di miglia nel progetto, ben al di sotto del livello.
Ma con l’apprendimento profondo, al centro di come le auto percepiscono gli oggetti e decidono di rispondere, il miglioramento del tasso di incidenti potrebbe essere più difficile di quanto sembri. “Questo non è un problema facilmente isolato”, dice la professoressa Mary Cummings del duca, indicando un incidente Uber che ha ucciso un pedone all’inizio di quest’anno. “Il ciclo di percezione-decisione è spesso collegato, come nel caso della morte dei pedoni. È stata presa la decisione di non fare nulla in base all’ambiguità nella percezione e la frenata d’emergenza è stata disattivata perché ha ricevuto troppi falsi allarmi dal sensore ”
Quel crash si concluse con Uber che interrompeva i suoi sforzi di auto-guida per l’estate, un segno inquietante per altre aziende che pianificavano le implementazioni. In tutto il settore, le aziende stanno correndo per avere più dati per risolvere il problema, supponendo che la compagnia con il maggior numero di miglia costruirà il sistema più forte. Ma dove le aziende vedono un problema con i dati, Marcus vede qualcosa di molto più difficile da risolvere. “Stanno semplicemente usando le tecniche che hanno nella speranza che funzioni”, dice Marcus. “Si appoggiano ai big data perché è la stampella che hanno, ma non ci sono prove che ti portino sempre al livello di precisione di cui abbiamo bisogno”.