LA STRATEGIA DI WAYMO PER FAR CRESCERE L’INTELLIGENZA MIGLIORE PER LE AUTO A GUIDA AUTONOMA
Lo spinoff di Google ha un vantaggio nell’IA, ma può mantenere il vantaggio?
Proprio ora, un minivan senza nessuno al volante sta guidando attraverso un sobborgo di Phoenix, in Arizona. E mentre ciò può sembrare allarmante, la società che ha costruito il “cervello” che alimenta l’autonomia della vettura vuole assicurarti che è totalmente sicuro. Waymo, l’unità autonoma di Alphabet, è l’unica azienda al mondo ad avere oggi veicoli completamente senza conducente su strade pubbliche . Ciò è stato reso possibile da un sofisticato insieme di reti neurali alimentate dall’apprendimento automatico di cui si sa ben poco – fino ad ora.
Per la prima volta, Waymo sta alzando il sipario su quello che è probabilmente il pezzo più importante (e più difficile da capire) del suo stack tecnologico. La società, che è in testa alla gara automobilistica auto-guida dalla maggior parte delle metriche, afferma con sicurezza che le sue auto hanno le intelligenze migliori oggi in circolazione. Questo grazie a un vantaggio iniziale nell’investimento in intelligenza artificiale, alcune acquisizioni strategiche da parte della consociata Google e uno stretto rapporto di lavoro con il team interno di ricercatori di intelligenza artificiale del gigante tecnologico.
IL BORDO SANGUINANTE DELL’INTELLIGENZA ARTIFICIALE
Chiunque può acquistare delle fotocamere e dei sensori LIDAR, schiaffarli su un’auto e chiamarla autonoma. Ma allenare una macchina che si guida da sola a comportarsi come un guidatore umano, o, soprattutto, a guidare meglio di un essere umano, è il filo conduttore della ricerca sull’intelligenza artificiale. Gli ingegneri di Waymo stanno modellando non solo il modo in cui le auto riconoscono gli oggetti sulla strada, per esempio, ma il modo in cui il comportamento umano influenza il comportamento delle auto. E stanno utilizzando un apprendimento approfondito per interpretare, prevedere e rispondere ai dati accumulati dai suoi 6 milioni di chilometri guidati su strade pubbliche e 5 miliardi guidati in simulazione.
Anca Dragan, uno dei nuovi dipendenti di Waymo, è in prima linea in questo progetto. Si è appena unita all’azienda a gennaio dopo aver diretto l’Interact Lab all’Università della California di Berkeley, che si concentra sulle interazioni uomo-robot. ( Una foto sul sito di Berkeley mostra Dragan che sorride ampiamente mentre un braccio robotizzato le versa una fumante tazza di caffè.) Il suo ruolo è assicurare che le nostre interazioni con le auto a guida autonoma di Waymo – come pedoni, passeggeri e autisti – siano interamente positivo. O per dirla in altro modo: lei è il nostro punto di riferimento contro l’inevitabile rivoluzione dei robot.
Dragan deve trovare un equilibrio. Mentre noi non vogliamo i signori dei robot, non vogliamo nemmeno i driver dei robot di livello medio. Ad esempio, se stai percorrendo un’autostrada trafficata a 65 miglia all’ora e vuoi fonderti nella corsia di sinistra, potresti semplicemente spingerci fino a quando gli altri conducenti non faranno spazio per te. Un’auto a guida autonoma che è stata addestrata a seguire le regole della strada può avere difficoltà a farlo. Un video è apparso di recente su Twitter che mostrava uno dei minivan di Waymo che cercava di immettersi su una strada trafficata e praticamente non ci riusciva.
“Come possiamo adattarci ai piloti con cui condividiamo la strada?”, Dice Dragan. “Come puoi personalizzare per essere più comodo o guidare più naturalmente? Questi sono i sottili miglioramenti che, se vuoi che funzionino, hai davvero bisogno di un sistema che funzioni. ”
Per un’innovazione che dovrebbe salvarci dalle vittime del traffico, sono stati mesi molto scoraggianti. A marzo, una donna di 49 anni è stata colpita e uccisa da un veicolo Uber che guidava da solo mentre attraversava la strada a Tempe, in Arizona. Qualche settimana più tardi, il proprietario di un Tesla Model X morì in un macabro incidente durante l’utilizzo di Autopilot , il sistema semi-autonomo di assistenza alla guida del fabbricante automobilistico. E proprio la scorsa settimana, un minivan Waymo con guida autonoma è stato travolto da una berlina Honda che aveva deviato il traffico in senso contrario.
SONO STATI MESI MOLTO SCORAGGIANTI
Nel frattempo, il pubblico sta diventando sempre più scettico. I regolatori stanno iniziando a ripensare il pass gratuito che stavano considerando di offrire alle aziende per costruire e testare veicoli completamente senza conducente. Nel mezzo di tutta questa incertezza, Waymo mi ha invitato nel suo quartier generale a Mountain View, in California, per una serie di interviste approfondite con le migliore teste umani della compagnia nelle menti artificiali.
Waymo è ospitato all’interno di X, il laboratorio di ricerca e sviluppo ad alto rischio di Google, che si trova a pochi chilometri dal campus principale di Googleplex. (Nel 2015, quando Google si è ristrutturata in un conglomerato chiamato Alphabet, X ha abbandonato Google dal suo nome.) Un anno dopo, il progetto di auto a guida autonoma di Google si è “diplomato” ed è diventato un’azienda indipendente denominata Waymo. Il team di auto-guida è ancora ospitato nella nave madre, anche se, accanto ai dipendenti che lavorano su droni di consegna e palloncini internet.
L’edificio, un ex centro commerciale, è insignificante della Bay Area. L’unica cosa da distinguere è la coppia di minivan Chrysler Pacifica auto-guidanti che si aggirano nel parcheggio che di tanto in tanto si fermano in modo che i dipendenti possano prendere selfie di fronte a loro. In Googleland, le celebrità sono le auto.
Waymo ha già un enorme vantaggio rispetto ai suoi concorrenti nel campo della guida autonoma. Ha guidato il maggior numero di miglia – 6 milioni su strade pubbliche e 5 miliardi in simulazione – e ha raccolto vasti depositi di dati preziosi nel processo. Ha partnership con due grandi case automobilistiche, Fiat Chrysler e Jaguar Land Rover , con molti altre in cantiere. I suoi veicoli di prova sono in viaggio in Texas, California, Michigan, Arizona, Washington e Georgia. E prevede di lanciare un servizio di taxi commerciale completamente senza conducente in Arizona entro la fine dell’anno.
IN GOOGLELAND, LE CELEBRITÀ SONO LE AUTO
Ora, l’azienda vuole che i suoi vantaggi nel campo dell’IA ancora in crescita siano maggiormente conosciuti. Il CEO di Waymo, John Krafcik, ha tenuto una presentazione alla conferenza annuale sugli sviluppatori I / O dell’azienda questa settimana. E il messaggio era chiaro: le nostre auto possono vedere oltre, percepire meglio e prendere decisioni rapide più velocemente di chiunque altro.
“È un problema davvero difficile se si sta lavorando su un veicolo completamente autonomo … a causa dei requisiti di capacità e dei requisiti di precisione”, mi dice Dmitri Dolgov, chief technology officer di Waymo e vicepresidente dell’ingegneria. “E l’esperienza conta davvero.”
L’apprendimento profondo, che è un tipo di apprendimento automatico che utilizza molti strati in una rete neurale per analizzare i dati con diverse astrazioni, è lo strumento perfetto per migliorare la percezione e il comportamento delle auto a guida autonoma, afferma Dolgov. “E siamo partiti molto presto … proprio mentre la rivoluzione stava accadendo proprio qui, nella porta accanto.”
Gli specialisti di intelligenza artificiale del team Google Brain collaborano regolarmente con Dolgov e i suoi colleghi ingegneri di Waymo sui metodi per migliorare l’accuratezza delle auto a guida autonoma. Ultimamente, hanno lavorato insieme su alcuni degli elementi più bui della ricerca di intelligenza artificiale come “machine learning automatico”, in cui le reti neurali vengono utilizzate per addestrare altre reti neurali. Waymo potrebbe essere la sua compagnia, ma quando si tratta di proiettare un’aura di invulnerabilità, aiuta ad avere il fratello più grande e più duro alle tue spalle.
L’improvviso interesse di Waymo nel brunire le sue credenziali AI è legato al suo sforzo di schierare veicoli che non richiedono qualcuno al posto di guida. Ad oggi, Waymo è l’unica azienda ad assumersi questo rischio. Il resto del settore si sta affrettando a recuperare, acquistando piccole start-up nel tentativo di far ripartire i propri sforzi di autonomia. Inoltre, i membri chiave del team di autoguidati di Google sono partiti per appendere il proprio scandalo, attirati da grandi possibilità e un sacco di soldi, e lasciando il gigante della tecnologia a lottare con notizie su “attrito” e “fuga di cervelli”.
Gli ex membri del team di auto-guida di Google e gli esperti esterni ammettono che Waymo sembra avere un grande vantaggio nel campo, ma riconosce che i suoi concorrenti probabilmente recupereranno alla fine. Dopotutto, Waymo non ha il monopolio delle macchine con il cervello.
“Forte come Google”, afferma Dave Ferguson, un ex ingegnere capo del team di autoassistenza di Google che da allora ha lasciato la propria azienda chiamata Nuro , “il campo è più forte “.
Le reti neurali, un tipo di apprendimento automatico in cui i programmatori costruiscono modelli che setacciano vasti depositi di dati e cercano modelli insieme, non erano ancora caldi. Un grande spostamento stava passando da reti neurali piuttosto superficiali (due o tre strati) alle reti profonde (strati a due cifre). Mentre il concetto risale agli anni ’50 – alla nascita della ricerca sull’IA – la maggior parte dei computer non era abbastanza potente per elaborare tutti i dati necessari. Tutto ciò è cambiato con il concorso ImageNet nel 2009.
ImageNet è iniziato come un poster dei ricercatori della Princeton University, esposto in una conferenza del 2009 sulla visione artificiale e il riconoscimento dei pattern in Florida. (I poster sono un tipico modo di condividere informazioni in questi tipi di conferenze di apprendimento automatico.) Da lì, è diventato un set di dati immagine, quindi una competizione per vedere chi potrebbe creare un algoritmo in grado di identificare la maggior parte delle immagini con il più basso tasso di errore. Il set di dati è stato “ritagliato” da circa 10.000 immagini a solo un migliaio di categorie di immagini o “classi”, comprese piante, edifici e 90 delle 120 razze canine. Intorno al 2011, il tasso di errore era di circa il 25%, il che significa che una su quattro immagini veniva identificata in modo errato dagli algoritmi delle squadre.
L’aiuto proveniva da un luogo inaspettato: potenti unità di elaborazione grafica (GPU) che si trovano in genere nel mondo dei videogiochi. “Le persone hanno iniziato a rendersi conto che quei dispositivi potevano essere effettivamente utilizzati per l’apprendimento automatico”, afferma Vincent Vanhoucke, ex ricercatore vocale di Google che ora è il capo tecnico dell’azienda per l’intelligenza artificiale. “Ed erano particolarmente adatti per gestire reti neurali”.
Il più grande successo è stato nel 2012, quando il ricercatore di IA Geoffrey Hinton e i suoi due studenti laureati, Ilya Sutskever e Alex Krizhevsky, hanno mostrato un nuovo modo di attaccare il problema: una rete neuronale convoluzionale alla Sfida ImageNet in grado di rilevare le immagini di oggetti quotidiani. La loro rete neurale ha messo in imbarazzo la concorrenza, riducendo il tasso di errore sul riconoscimento delle immagini al 16 percento, dal 25 percento agli altri metodi prodotti.
“E DA ALLORA, NON CI SIAMO MAI VOLTATI INDIETRO”.
“Credo che sia stata la prima volta che un approccio deep learning basato sulla rete neurale ha superato l’approccio standard”, afferma Ferguson, ex ingegnere di Google. “E da allora, non ci siamo mai voltati indietro”.
Krizhevsky adotta un approccio più accorto al suo ruolo nella Sfida ImageNet 2012. “Immagino che fossimo nel posto giusto al momento giusto”, mi dice. Attribuisce il loro successo al suo hobby di programmare le GPU per eseguire il codice per la rete neurale del team, consentendo loro di eseguire esperimenti che normalmente richiederebbero mesi in pochi giorni. E Sutskever ha fatto la connessione per applicare la tecnica alla competizione ImageNet, dice.
Il successo di Hinton e della sua squadra “ha innescato un effetto valanga”, dice Vanhoucke. “Un sacco di innovazione è venuta da questo.” Un risultato immediato è stato l’ acquisizione da parte di Google della società DNNresearch di Hinton , che comprendeva Sutskever e Krizhevsky, per una somma non rivelata. Hinton rimase a Toronto e Sutskever e Krizhevsky si trasferirono a Mountain View. Krizhevsky è entrato a far parte del team di Vanhoucke su Google Brain. “Ed è allora che abbiamo iniziato a pensare di applicare queste cose a Waymo”, dice Vanhoucke.
Un’altra ricercatrice di Google, Anelia Angelova, è stata la prima a contattare Krizhevsky per applicare il proprio lavoro al progetto automobilistico di Google. Nessuno dei due ha ufficialmente lavorato su quella squadra, ma l’opportunità è stata troppo buona per ignorarla. Hanno creato un algoritmo che potrebbe insegnare a un computer a capire come fosse un pedone – analizzando migliaia di foto di strada – e identificare i modelli visivi che definiscono un pedone. Il metodo è stato così efficace che Google ha iniziato ad applicare la tecnica ad altre parti del progetto, tra cui la previsione e la pianificazione.
I problemi sono emersi quasi immediatamente. Il nuovo sistema stava commettendo troppi errori, auto con errori di etichettatura, segnali stradali e pedoni. Inoltre, non era abbastanza veloce da funzionare in tempo reale. Così Vanhoucke e il suo team hanno sfogliato le immagini, dove hanno scoperto che la maggior parte degli errori erano errori commessi dagli etichettatori umani . Google li ha introdotti per fornire una linea di base, o “verità fondamentale”, per misurare il tasso di successo dell’algoritmo – e hanno invece aggiunto degli errori. Il problema con le auto autonome, si è scoperto, era ancora la gente.
IL PROBLEMA CON LE AUTO AUTONOME, SI È SCOPERTO, ERA ANCORA LA GENTE
Dopo aver corretto l’errore umano, Google ha ancora difficoltà a modificare il sistema fino a quando non è in grado di riconoscere immediatamente le immagini. Lavorando a stretto contatto con il team di auto a guida autonoma di Google, i ricercatori di IA hanno deciso di incorporare approcci più tradizionali di apprendimento automatico, come alberi decisionali e classificatori a cascata, con le reti neurali per ottenere “il meglio di entrambi i mondi”, ricorda Vanhoucke.
“È stato un momento molto, molto eccitante per noi mostrare effettivamente quelle tecniche che sono state utilizzate per trovare immagini di gatti e cose interessanti sul web”, dice. “Ora venivano effettivamente utilizzati per migliorare la sicurezza delle auto senza conducente.”
Krizhevsky lasciò Google diversi anni dopo, dicendo che “aveva perso interesse” nel lavoro. “Sono stato depresso per un po ‘”, ammette. La sua partenza ha sconcertato i suoi colleghi di Google, e da allora ha assunto un po ‘di status mitico. (Ferguson lo definì un “sussurro dell’IA”). Oggi Krizhevsky si chiede se questi primi successi saranno sufficienti a dare a Google un vantaggio insormontabile nel campo dell’autonomia. Altre aziende automobilistiche e tecnologiche hanno già capito l’importanza dell’apprendimento automatico e i dati di Waymo potrebbero essere troppo specifici per estrapolare a scala globale.
“Penso che Tesla abbia l’unico vantaggio di essere in grado di raccogliere dati da una vasta gamma di ambienti perché ci sono proprietari di Tesla con hardware auto-guida in tutto il mondo”, mi dice. “Questo è molto importante per gli algoritmi di apprendimento automatico da generalizzare. Quindi suppongo che almeno dal lato dei dati, se non dal lato algoritmico, Tesla potrebbe essere in vantaggio. ”
L’intelligenza artificiale e l’apprendimento automatico sono essenziali per le auto a guida autonoma. Ma alcuni dei concorrenti di Waymo – che includono ex membri del team di autogestione di Google – si chiedono quanto a lungo dureranno i vantaggi dell’azienda.
Sterling Anderson è l’ex direttore di Autopilot a Tesla e co-fondatore di Aurora Innovation, che ha iniziato con l’ex capo del programma di auto a guida autonoma di Google, Chris Urmson, e Drew Bagnell di Carnegie Mellon. Dice che una conseguenza naturale dei miglioramenti nell’IA è che i grandi head-start come Waymo sono “meno significativi come lo sono stati”. In altre parole, tutti coloro che lavorano su auto a guida autonoma nel 2018 utilizzano già deep learning e reti neurali da all’inizio. Lo splendore è spento. E come un vecchio frutto, molti dei dati dei primi tempi sono diventati molli e immangiabili. Un miglio guidato nel 2010 non è un miglio guidato nel 2018.
“I dati vengono lasciati sul pavimento dopo un certo numero di anni”, afferma Anderson. “Diventa utile per l’apprendimento e diventa utile per l’evoluzione dell’architettura e l’evoluzione dell’approccio. Ma ad un certo punto, affermando che ho X milioni di miglia o X miliardi di miglia, o qualunque cosa sia, diventa meno significativo. ”
“I DATI VENGONO LASCIATI SUL PAVIMENTO DOPO UN CERTO NUMERO DI ANNI.”
Gli ingegneri di Waymo sono d’accordo. “Per motivi di apprendimento automatico in particolare, esiste una cosa come un punto di diminuzione del rendimento”, afferma Sacha Arnoud, responsabile della divisione machine learning and perception dell’azienda. “Guidare 10 volte in più non ti darà necessariamente set di dati molto più grandi, perché ciò che conta è l’unicità degli esempi che trovi”.
In altre parole, ogni miglio aggiuntivo accumulato da Waymo deve essere interessante perché sia rilevante per il processo di formazione delle reti neurali dell’azienda. Quando le auto incontrano casi limite o altri scenari unici, come jaywalker o auto con parcheggio parallelo, queste vengono filtrate attraverso il simulatore di Waymo per essere trasformate in migliaia di iterazioni che possono essere utilizzate per ulteriore addestramento.
I robot possono anche essere ingannati. Le immagini contraddittorie, o le immagini progettate per ingannare il software di visione artificiale, possono essere utilizzate per minare o addirittura abbattere le auto che si guidano da soli. Gli adesivi possono essere applicati a un segnale di stop per confondere un sistema di visione artificiale nel pensare che sia un segnale di 45 miglia all’ora.
Una rete neurale addestrata da Google per identificare oggetti di uso comune è stata recentemente indotta a pensare che una tartaruga stampata in 3D fosse in realtà una pistola. Gli ingegneri di Waymo dicono che stanno costruendo ridondanza nel loro sistema per affrontare queste possibilità. Aggiungilo al lungo elenco di preoccupazioni relative alle auto a guida autonoma, tra cui l’hacking, il ransomware e le violazioni della privacy.
Dolgov è seduto in una delle sale per conferenze di X, con la lavagna bianca in mano, MacBook Pro aperto davanti a lui, chiedendomi di descrivergli la differenza tra Garfield e Odie.
Prima che io possa balbettare una risposta, Dolgov continua: “Se ti do una foto, e ti chiedo” è un gatto o un cane “, lo saprai molto velocemente, giusto? Ma se ti chiedo di descrivermi come sei arrivato a quella conclusione, non sarebbe stato banale. Pensi che abbia qualcosa a che fare con la dimensione della cosa, il numero di gambe è lo stesso, il numero di code è lo stesso, solitamente lo stesso numero di orecchie. Ma non è ovvio. ”
Questo tipo di domanda è davvero adatto per gli algoritmi di deep learning, dice Dolgov. Una cosa è venire fuori con una serie di regole e parametri di base, come il rosso significa fermarsi, il verde significa andare e insegnare a un computer a distinguere tra diversi tipi di segnali stradali. Insegnare a un computer a scegliere un pedone da un oceano di dati del sensore è più facile che descrivere la differenza o persino codificarla.
Waymo utilizza un processo automatizzato e etichettatrici umane per addestrare le sue reti neurali. Dopo essere stati addestrati, anche questi giganteschi set di dati devono essere potati e ridotti in modo da poter essere distribuiti nel mondo reale nei veicoli Waymo. Questo processo, simile alla compressione di un’immagine digitale, è la chiave per costruire l’infrastruttura per adattarsi a un sistema globale.
Se guardi le immagini catturate dalle telecamere delle macchine e le metti accanto alla stessa scena costruita dai dati del sensore laser del veicolo, inizi a vedere l’enormità del problema che Waymo sta cercando di affrontare. Se non hai mai visto un rendering LIDAR, il modo migliore per descriverlo è Street View di Google come poster psichedelico di Blacklight.
Queste immagini forniscono una vista a volo d’uccello dell’auto che guida da solo e ciò che “vede” attorno ad esso. I pedoni sono rappresentati come rettangoli gialli, altri veicoli sono scatole viola e così via. Waymo ha categorie per “cane gatto” e “uccello scoiattolo”, tra gli altri, che utilizza per gli animali. (Risulta che le differenze tra un cane e un gatto non sono del tutto rilevanti per i veicoli autonomi.) Ma dietro a ciò, Waymo sta allenando i suoi algoritmi per percepire gli attori atipici nell’ambiente: un operaio edile in vita in un tombino, qualcuno in un costume da cavallo, un uomo in piedi sull’angolo che gira un cartello a forma di freccia.
“GLI EVENTI RARI SONO DAVVERO, DAVVERO IMPORTANTI.”
Per escludere un guidatore umano dall’equazione, l’auto deve adattarsi agli elementi più strani di un tipico drive. “Gli eventi rari sono davvero importanti,” mi dice Dolgov, “specialmente se stai parlando di rimuovere un autista .”
Programmare la macchina per rispondere a qualcuno che attraversa la strada durante il giorno in una cosa, ma farla percepire e reagire a un jaywalker è completamente diversa. E se quel jaywalker si fermasse a una mediana? Le auto a guida automatica di Waymo reagiranno con cautela poiché i pedoni spesso camminano fino a una mediana e aspettano. Cosa succede se non c’è una mediana? L’auto riconosce questo comportamento insolito e rallenta abbastanza da consentire l’attraversamento del pedone. Waymo ha costruito modelli utilizzando l’apprendimento automatico per riconoscere e reagire a comportamenti sia normali che insoliti.
Le reti neurali necessitano di una quantità eccessiva di dati da addestrare. Ciò significa che Waymo ha accumulato “centinaia di milioni” di etichette di veicoli da solo. Per aiutare a mettere questo nel contesto, il capo della percezione di Waymo, Arnoud, ha stimato che una persona che etichetta un’auto ogni secondo impiegherebbe 20 anni per raggiungere 100 milioni. Operando ogni ora di ogni giorno di ogni settimana e colpendo 10 etichette al secondo, le macchine di Waymo impiegano ancora quattro mesi per scorrere l’intero set di dati durante il suo processo di addestramento, dice Arnoud.
Ci vuole più di un buon algoritmo per liberarsi dai siti di test geofenced dei sobborghi di Phoenix. Se Waymo desidera che le sue vetture senza conducente siano abbastanza intelligenti da operare in qualsiasi ambiente e in qualsiasi condizione, definita come autonomia di Livello 5, ha bisogno di un’infrastruttura sufficientemente potente per ridimensionare il proprio sistema di auto-guida. Arnoud lo chiama “industrializzazione” o “produzione” dell’IA.
Come parte di Alphabet, Waymo utilizza i data center di Google per addestrare le sue reti neurali. In particolare, utilizza un sistema hardware di cloud computing ad alta potenza chiamato “unità di elaborazione tensoriale”, che sostiene alcune delle tecnologie più ambiziose e di vasta portata della società. In genere, questo lavoro viene eseguito utilizzando GPU disponibili in commercio, spesso da Nvidia. Ma negli ultimi anni, Google ha scelto di costruire parte di questo hardware e ottimizzare per il proprio software. Le TPU sono “ordini di grandezza” più veloci delle CPU, afferma Arnoud.
IL FUTURO DELL’IA A WAYMO NON È UN VEICOLO SENZIENTE
Il futuro dell’IA a Waymo non è un veicolo senziente. (Mi dispiace, fan dei Knight Rider .) È una ricerca d’avanguardia come l’apprendimento automatico delle macchine, in cui il processo di costruzione di modelli di apprendimento automatico è automatizzato. “In sostanza, l’idea che tu abbia l’apprendimento automatico della macchina artificiale sta creando altri modelli di intelligenza artificiale che in realtà risolvono il problema che stai cercando di risolvere”, dice Arnoud.
Ciò diventa estremamente utile per la guida in aree con segni di corsia poco chiari. Oggigiorno, gli ambienti di guida più difficili richiedono auto a guida autonoma per prendere decisioni di guida senza linee bianche, punti Bot, o chiare demarcazioni ai margini della strada. Se Waymo può costruire modelli di apprendimento automatico per addestrare le sue reti neurali a guidare su strade con segni non chiari, le auto a guida autonoma di Waymo possono mettere la periferia di Phoenix nella sua vista posteriore e alla fine colpire la strada aperta.