Consumer Reports smaschera la mistica completa della guida autonoma di Tesla, ecco il risultato

Il noto e altamente riconosciuto valutatore di prodotti di consumo, Consumer Reports (CR) , ha rilasciato venerdì un’attesissima revisione del set di funzionalità Full Self-Driving (FSD) di Tesla e il titolo evocativo del pezzo pubblicato da CR rende abbondantemente chiaro il risultati della valutazione generale: “La” capacità di guida autonoma “di Tesla non è all’altezza del suo nome” ( il post online include anche un video veloce di sette minuti e mezzo che illustra la valutazione condotta).

Per coloro che sono già esperti nella tecnologia della guida autonoma, la valutazione di CR è una voce benvenuta che aggiunge più peso alla continua preoccupazione della maggior parte di questi esperti riguardo a Tesla ed Elon Musk che promettono troppo su ciò che il loro cosiddetto Full Self-Driving può attualmente fare

Una cosa è fare una promessa eccessiva in generale, ed è un’altra cosa è fare una promessa eccessiva quando si affrontano le cupe questioni di vita o di morte coinvolte nella guida di automobili. Se un venditore prometteva eccessivamente di dire il proprio detersivo per bucato, quelli che si affidavano a quel voto probabilmente non avrebbero subito molti danni giudicando male l’uso durante il lavaggio dei loro vestiti. Fare valutazioni errate quando si è al volante di un’auto, un veicolo sulle nostre strade pubbliche, uno che pesa molte tonnellate e può facilmente schiantarsi o uccidere qualcuno, fa presagire risultati piuttosto seri e sconcertanti.

Iniziamo considerando la denominazione del set di funzionalità, quindi procediamo nei dettagli di ciò che fanno le funzionalità e, soprattutto, di ciò che non fanno ancora.

Coloro che preferiscono il moniker Full Self-Driving tendono a sottolineare rapidamente che si tratta semplicemente di un nome ambizioso. Quindi, probabilmente ammetterebbero che, naturalmente, il Tesla FSD non funziona ancora in modo completamente autonomo, come se questo fosse un fatto ovvio, e quindi esorterebbero che l’obiettivo sarà un giorno raggiungere quel tipo di autonomia. In tal senso, sosterrebbero che è ragionevole chiamare il prodotto ciò che è destinato a diventare poiché altrimenti sarebbe necessario rinominare il prodotto in una data futura e ciò sarebbe costoso e mostrerebbe una mancanza di visione profetica quando ci si prepara per il futuro.

Bene, un tribunale tedesco non vede le cose allo stesso modo , avendo a luglio emesso una sentenza del tribunale secondo cui il marchio Tesla di Autopilot era falsamente fuorviante, offrendo promesse esagerate, e lo ha sottolineato come un capacità di assistenza alla guida il riutilizzo della parola quotidiana “pilota automatico” implicava un sistema completamente autonomo piuttosto che uno che richiedesse il controllo manuale. Per coloro che ritenevano che la denominazione dell’Autopilota consentisse un certo margine di manovra nell’interpretazione di autonomo o meno (e quindi aveva angoscia per la sentenza del tribunale tedesco), certamente, la denominazione di “Full Self-Driving” sembra sviscerare completamente quella presunta scappatoia semantica.


Una preoccupazione spesso citata sui conducenti Tesla è che attraverso l’uso della capacità esistente di “Full Self-Driving” è che diventeranno rilassati nella guida e saranno cullati a fare affidamento su un’automazione di guida che è decisamente non completamente autonoma. Oltre al nome del prodotto che dà loro quell’illusione, le caratteristiche stesse possono essere ingannevolmente allettanti e condurre qualcuno lungo il percorso sconsiderato di lasciare che l’auto guidi quando si suppone che il guidatore umano lo faccia.

Una replica comune dei proprietari di Tesla è che qualsiasi guidatore di una Tesla che viene ingannato dal nome FSD o che diventa compiacente quando la guida è essenzialmente estremamente densa e non rappresenta la preponderanza dei conducenti di Tesla. Anche se questo è vero, quale percentuale di guidatori Tesla siamo noi come società disposta ad aderire va bene avere quella parvenza di falsità mentre siamo al volante e potenzialmente finire in un incidente d’auto? In quasi tutte le percentuali che potresti scegliere, se meno dell’1% o forse del 10% o più, ciò equivale a molti conducenti con il potenziale per deviare dal ranch, allo stato attuale, e presumibilmente non sarebbero così affascinati se l’FSD la denominazione era meno incantevole e oracolare.

Un ulteriore punto di discussione riguarda l’idea che i proprietari di Tesla stiano pagando un extra per FSD, eppure non stanno ottenendo una guida completamente autonoma di per sé , almeno non ora (invece, stanno ottenendo il set di funzionalità meno che esiste attualmente). Si promette che un giorno l’intera incarnazione di FSD potrà essere scaricata nei loro veicoli tramite l’uso di aggiornamenti elettronici OTA (Over-The-Air) per l’auto, una volta così preparati.

Per coloro che cercano di includere quest’ultimo problema nel dibattito sulla denominazione FSD, è in qualche modo un distrattore e non soprattutto al centro di importanti preoccupazioni sulla vita o sulla morte di per sé.

Ecco perché.

Gli acquirenti di Tesla possono prontamente affermare di aver scelto volontariamente di stendere l’impasto extra per la FSD e che quindi non è compito di nessun altro giudicarli. Se vogliono spendere i loro soldi in quel modo, dipende da loro. Inoltre, sosterrebbero che poiché possono sfruttare il set di funzionalità FSD esistente, non è come se stessero acquistando vaporware, anche se se volessero farlo (cioè acquistare un prodotto inesistente), sarebbe comunque interamente sul loro proprie spalle. In sostanza, il tono in genere è quello di rifiutare come vogliono spendere i loro sudati guadagni.

La controargomentazione è che queste persone vengono indotte ad acquistare qualcosa che ancora non esiste e per il quale non si sa se esisterà mai. Naturalmente, tale controargomentazione è in qualche modo indebolita dal fatto che stanno ottenendo qualcosa, vale a dire le caratteristiche esistenti meno di FSD, inoltre non sappiamo ancora in modo definitivo che la FSD non sarà mai raggiunta.

In breve, è probabile che l’intero argomento sul denaro finisca per farsi strada attraverso i tribunali, presumibilmente attraverso cause legali da parte dei proprietari di Tesla che chiederebbero la restituzione se la FSD non fosse mai fornita, o da autorità legali che potrebbero credere che il pubblico sia stato offeso da impegni. che non furono mai onorati.

Nel complesso, il dibattito sul costo aggiuntivo della FSD è un po ‘tangente e non si collega immediatamente e direttamente ai pericoli sulla strada associati a questo tema generale.

Come breve barra laterale, solo per completezza, chiunque cerchi di sostenere che FSD è effettivamente una guida completamente autonoma in questo momento è davvero fuori dal regno della discussione razionale. O sono completamente inconsapevoli di quale sia il set di funzionalità Tesla FSD, oppure comprendono completamente male cosa significhi quando si riferiscono a un’auto a guida autonoma completamente autonoma.

Per mettere le cose in chiaro, prendiamoci un momento per chiarire cosa significa veramente guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle che l’IA guida l’auto interamente da sola e non c’è alcuna assistenza umana durante l’attività di guida.

Questi veicoli senza conducente sono considerati di Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui ), mentre un’auto che richiede un conducente umano per condividere lo sforzo di guida è solitamente considerata a Livello 2 o Livello 3 . Le auto che condividono l’attività di guida sono descritte come semi-autonome e in genere contengono una varietà di componenti aggiuntivi automatizzati denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, che non sappiamo nemmeno se sarà possibile ottenere questo , né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi di Livello 4 stanno gradualmente cercando di ottenere un po ‘di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c’è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e superstrade, alcuni segnalano, vedi la mia indicazione a questo link qui ).

Per le auto semiautonome, è importante che il pubblico debba essere avvertito di un aspetto inquietante che si è verificato ultimamente, ovvero che nonostante quei guidatori umani che continuano a postare video di se stessi addormentati al volante di un’auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di farci credere che il conducente possa distogliere la sua attenzione dal compito di guida mentre guida un’auto semiautonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione potrebbe essere lanciata in un Livello 2 o Livello 3.

Caratteristiche e problemi delle capacità FSD di Tesla odierne

Per i veri veicoli a guida autonoma di livello 4 e 5, non ci sarà un conducente umano coinvolto nel compito di guida. Tutti gli occupanti saranno passeggeri. L’intelligenza artificiale sta guidando.

Gli odierni Tesla che impiegano la FSD sono considerati a Livello 2 (vedi spiegazione a questo link qui ), e non ancora a Livello 3, e certamente non da nessuna parte simile a Livello 4 o Livello 5.

Il punto è che la denominazione “Full Self-Driving” non è inconfutabilmente ciò che il set di funzionalità può fare oggi. Questo è davvero indiscutibile e come accennato in precedenza, chiunque cerchi di affermare che la FSD è attualmente completamente autonoma non è disposto a portare avanti il ​​discorso in modo razionale o sensato.

Secondo il messaggio CR : “Sebbene abbia fatto passi da gigante nella guida automatizzata, i proprietari non dovrebbero fare affidamento sulle funzionalità di assistenza alla guida di Tesla per aggiungere necessariamente sicurezza o per rendere la guida più facile, sulla base dei numerosi test ed esperienza di Consumer Reports”.

Tornando al titolo del pezzo di Consumer Reports, sono stati forse generosi quando hanno affermato che la FSD non è all’altezza del suo nome, una generosità basata su una duplice logica.

Innanzitutto, in un certo senso, tutti coloro che conoscono le auto a guida autonoma sapevano già che la FSD di oggi non è una vera guida completamente autonoma. Nondimeno, è apparentemente utile che CR lo dica ufficialmente, e quindi aiuti a diffondere questo sentimento estremamente cruciale, forse anche aiutando a intaccare la facciata pubblica in corso del moniker “Full Self-Driving” che appare nelle pubblicità e per che molti post sui media abbelliti sembrano contribuire al suo significato eccessivamente gonfiato.

In secondo luogo, alcuni insisterebbero con veemenza sul fatto che il titolo avrebbe dovuto essere “FSD non è all’altezza” o “FSD manca di un miglio di campagna”, nel senso che l’FSD di oggi è così ampiamente lontano da ciò che sarebbe una vera auto a guida autonoma.

Questa mancanza di enfasi nel titolo del pezzo su quanto sia carente potrebbe potenzialmente consentire ad alcuni di scrollarsi di dosso la recensione. La scrollata di spalle sarebbe presumibilmente così sicura, c’è sempre qualcosa di minuscolo che potrebbe non essere perfetto, ma c’è da aspettarselo in qualsiasi prodotto.

In un certo senso, questo riferimento casuale a una carenza potrebbe essere paragonato a un presunto detersivo per bucato superpulente caratterizzato come insufficiente, quando il detersivo era innegabilmente incapace di super-pulire e quasi del tutto incapace di pulire, inoltre potenzialmente aveva il potenziale negativo di rendere anche i tuoi vestiti più sporchi (tutto questo essendo una situazione analoga imperfetta senza possibilità di pericolo di vita, cosa che un’auto ha assiomaticamente).

Ora che abbiamo coperto le basi su questo argomento, procediamo con i dettagli della FSD e la relativa revisione della CR.

Per quelli di voi che non hanno particolare familiarità con Tesla e l’autopilota rispetto all’FSD, ecco come lo ha affermato brevemente CR : “I sistemi di assistenza alla guida attiva di Tesla sono divisi in due parti: La prima, Autopilota, che include il cruise control adattivo (Tesla si riferisce a questo come Traffic-Aware Cruise Control) e funzionalità di assistenza per il mantenimento della corsia (sterzo automatico nella terminologia Tesla): sono ora di serie su ogni nuova Tesla. Per questa valutazione, ci siamo concentrati sulla suite opzionale Full Self-Driving Capability di sistemi di assistenza alla guida: Autopark, Auto Lane Change, Summon, Smart Summon, Navigate on Autopilot e Traffic Light and Stop Sign Control.

Ho trattato molte di queste funzionalità di Autopilota e FSD in pubblicazioni precedenti, quindi considera di dare un’occhiata a questo collegamento qui e questo collegamento qui , più questo collegamento qui e qui a questo collegamento per varie analisi dettagliate.

Come esempio nel presente documento, esaminiamo la funzione Smart Summon.

L’idea alla base di Smart Summon è che puoi utilizzare un’app per smartphone fornita da Tesla e richiedere all’auto Tesla di venire da te o di raggiungere una destinazione specificata sulla mappa dello smartphone. Questo sarebbe senza dubbio utile quando provi a parcheggiare la tua auto in un parcheggio affollato di un centro commerciale, permettendoti di uscire dalla tua Tesla all’ingresso dei negozi del centro commerciale, e poi fare in modo che la Tesla si parcheggi da sola. Allo stesso modo, potresti essere uscito da un edificio per uffici e potrebbe piovere, quindi potresti usare Smart Summon per far guidare la Tesla da sola dal parcheggio alla parte anteriore dell’edificio per uffici dove stai aspettando.

Ecco cosa ha detto CR riguardo a Smart Summon : “Abbiamo provato Smart Summon in una serie di scenari, compreso il parcheggio presso la sede centrale di CR a Yonkers, NY Nel complesso, il sistema si è rivelato inaffidabile”.

Ti starai chiedendo quali tipi di problemi di affidabilità sono sorti.

I problemi rilevati includevano:

· Il veicolo Tesla a volte non si è fermato o addirittura fermato ai segnali di stop affissi

· Il veicolo Tesla a volte è entrato nella corsia opposta (corsia sbagliata) del traffico

· Il veicolo Tesla a volte faceva ampie curve, dirigendosi verso altre auto parcheggiate

· Il veicolo Tesla a volte ha cercato di eseguire il backup perché si avvicinava ad altre auto parcheggiate

· Eccetera.

Se pensi che questi siano punti critici, tieni presente che si tratta di un’auto di molte tonnellate, che funziona essenzialmente da sola, in un parcheggio potenzialmente popolato o in altre aree, essendo tra le altre auto in movimento, in mezzo ai pedoni che camminano, e così via. Come indicato da CR : “Queste sono tutte situazioni che potrebbero causare confusione agli altri conducenti, oltre a rappresentare un potenziale pericolo per i pedoni sul percorso dell’auto”.

Per fortuna, il veicolo di solito va a bassa velocità durante l’Evocazione Intelligente, fornendo un certo margine di tempo di reazione a coloro che forse vedono e reagiscono alla sua scarsa guida.

Dovremmo però mettere gli altri guidatori l’onere di dare spazio a un guidatore un po ‘ribelle, per così dire, piuttosto che tenere i piedi di quel guidatore (l’automazione) sul fuoco per guidare correttamente e in sicurezza?

Lo stesso si può dire dei pedoni.

I pedoni dovrebbero essere in guardia speciale per un guidatore ribelle (automazione)?

Potresti provare a sostenere che i pedoni devono anche diffidare dei veicoli a guida umana. Sì, è davvero così, ma siamo disposti ad avere un veicolo “a guida autonoma” che guidi in un modo di guidatori umani ribelli? Certamente sembra che ci aspetteremmo che un sistema di guida completamente autonomo svolga un lavoro molto migliore di un guidatore umano distratto o di un guidatore umano altrimenti ribelle.

Le carenze di Smart Summon sono in qualche modo spazzate via dall’indicazione pubblicata da Tesla secondo cui la persona che tiene lo smartphone che ha richiamato l’app Tesla è la parte responsabile: “Sei ancora responsabile della tua auto e devi monitorarla e ciò che lo circonda in ogni momento ed essere nel tuo campo visivo perché potrebbe non rilevare tutti gli ostacoli. “

Ciò fornisce poco conforto agli altri conducenti e ai pedoni che si imbattono in una Tesla in movimento con Evocazione Intelligente. Considera queste domande mirate:

· La persona che attiva l’Evocazione Intelligente è abbastanza vicina da vedere cosa sta succedendo?

· Reagiranno in modo appropriato e in tempo?

· Prestano continuamente attenzione mentre è in corso l’Evocazione Intelligente?

· Supponiamo che la persona stia parlando con qualcun altro e presti attenzione solo parzialmente?

· Se la persona ha già utilizzato l’Evocazione Intelligente in precedenza, potrebbe essere indotta a non prestare attenzione questa volta?

· Ci si può fidare che qualcuno che non si trova al posto di guida sia attento a un’auto in roaming quando si trova a una certa distanza dal veicolo?

· E così via.

Ecco di cosa si preoccupano anche i guru delle auto a guida autonoma.

CR ha riferito che a volte, durante l’Evocazione Intelligente, la Tesla avrebbe proceduto in avanti a un incrocio a forma di T che richiedeva una svolta a sinistra oa destra, avvicinandosi ad altre auto parcheggiate sul bordo della forma a T. Dopo essersi avvicinato a quelle auto parcheggiate, la Tesla si fermò, fece retromarcia, fece marcia indietro poiché ora era eccessivamente vicino a quelle auto parcheggiate e non poteva facilmente svoltare a sinistra oa destra, raddrizzata mentre si trovava in una corsia di traffico attiva, e poi è stato in grado di fare la svolta necessaria.

Cosa succede con quello?

Immagina un guidatore umano che fa lo stesso tipo di azione. Forse pensa a uno studente che impara a guidare. Sono arrivati ​​all’interazione a forma di T, hanno guidato dritto e alla fine si sono resi conto che dovevano fare una svolta. Ma non erano riusciti ad iniziare la curva abbastanza presto, e ora, nel mezzo del movimento, arrestare l’auto, fare marcia indietro mentre si trova in una corsia di traffico attiva, quindi alla fine girare la ruota ed effettuare la svolta.

Scommetto che la maggior parte di noi ha visto quel tipo di comportamento di guida per principianti. Se sei un genitore seduto sul sedile del passeggero, di solito ti toglie il fiato e preghi che l’auto non colpisca nessuna delle auto parcheggiate e che nessun’altra auto in movimento nelle vicinanze si infili nella tua auto mentre rende imbarazzante girare. E che tutti i pedoni nelle vicinanze sono disposti a tenersi alla larga oa camminare per l’intera palude.

È un disastro.

Una probabile ipotesi è che la capacità Tesla FSD stia svolgendo un lavoro insufficiente nella fase di pianificazione della guida dell’attività di guida. Una volta raggiunta la posizione a forma di T, o anche prima di arrivarci, il sistema dovrebbe anticipare che sarà necessaria una svolta. La svolta non dovrebbe aspettare fino a quando non sono già sulle altre auto parcheggiate ai margini del locale a forma di T. Invece, quando la Tesla arriva all’emergenza a forma di T, l’auto dovrebbe iniziare a girare o essere pronta a farlo, supponendo anche che abbia prima cercato di rilevare se ci sono altre auto in arrivo o pedoni.

Questa operazione inadeguata nello scenario a forma di T potrebbe anche essere un’indicazione di limitazioni nella suite di sensori e nelle capacità di rilevamento dell’FSD. Forse i sensori non sono stati in grado di rilevare che c’erano auto parcheggiate sull’altro lato dell’area a forma di T, o non sono stati in grado di capire dove esistesse la strada percorribile (un aspetto chiave di un sistema di guida è il rilevamento della carreggiata e dove si guida è consentito, noto come rilevamento dello spazio libero, vedere questa spiegazione qui ).

Dato che Tesla ed Elon Musk hanno evitato a gran voce l’ uso del LIDAR , noto in effetti nell’industria automobilistica a guida autonoma per la loro posizione anti-LIDAR (vedere la mia discussione a questo link qui ), è concepibile che l’uso delle loro fotocamere e i radar attualmente non sono in grado di sorvegliare adeguatamente la scena. Se è così, questo è forse un altro segno contro l’insistenza anti-LIDAR e potrebbe essere usato contro Tesla per potenziali casi giudiziari che coinvolgono incidenti automobilistici Tesla.

Un’altra possibilità è che l’hardware di bordo non sia abbastanza veloce per elaborare ciò che sta accadendo durante la virata a T. Supponiamo che il sistema di guida entri nella corsia attiva, procedendo senza esitazione, e quindi gli aspetti computazionali raggiungano e avvisano il resto del sistema di guida che le auto parcheggiate sono sedute lì, bloccando la strada.

Esistono numerosi modi in cui questi comportamenti di guida possono essere spiegati, sebbene dal momento che il sistema di guida Tesla è proprietario e non pubblicato, non ci sono mezzi diretti per gli estranei per ispezionare il codice e identificare il motivo per cui le azioni di guida sono inadeguate.

Conclusione

Nel post di CR, una citazione di Kelly Funkhouser, responsabile dei test sui veicoli connessi e automatizzati presso CR, sembra abbastanza indicativa dei risultati della loro valutazione: “Sembra che Tesla si concentri sull’essere la casa automobilistica con il maggior numero di funzionalità piuttosto che garantire che le funzionalità funzionano bene. “

Alcuni affermano con grande apprensione che Tesla sta coinvolgendo tutti noi in un pericoloso esperimento stradale, sulle nostre strade pubbliche e secondarie, pubblicando le varie beta e altre funzionalità non provate, raccolte insieme e chiamate per un’aspirazione futura piuttosto che per ciò che ottengono oggi, e lo fanno con gioia tra i loro sostenitori enfatici, mentre inconsapevolezza mal informata tra i molti e con espressa trepidazione e avvertimenti da parte di alcuni.

Potresti andare avanti con un aspirazionale detersivo per bucato “super-pulente” in una tale circostanza, ma dovremmo fare lo stesso con un’auto di più tonnellate?

Il tempo lo dirà.

Di ihal