Una nuvola di tensione si è accumulata sopra Tesla: l’ente federale statunitense per la sicurezza stradale, la NHTSA (National Highway Traffic Safety Administration), ha annunciato un’indagine che coinvolge ben 2,9 milioni di veicoli Tesla dotati del sistema “Full Self-Driving” (FSD). L’oggetto dell’attenzione sono una serie di incidenti e segnalazioni che sollevano interrogativi seri sulla sicurezza del sistema quando è in funzione.
Secondo il dossier preliminare aperto dall’Office of Defects Investigation della NHTSA, l’indagine è motivata da 58 segnalazioni che coinvolgono violazioni del codice della strada attribuibili al funzionamento del sistema FSD. In quei casi, tra gli eventi registrati vi sono 14 incidenti con collisioni o incendi, 10 episodi con feriti e 23 situazioni in cui si è registrato almeno un decesso.
Tra i casi più inquietanti spiccano almeno sei incidenti in cui il veicolo, con FSD attivo, ha attraversato un incrocio con semaforo rosso, ignorando la segnalazione e scontrandosi con altri veicoli. In particolare, la NHTSA ha evidenziato che alcuni di questi eventi sono avvenuti più volte nello stesso incrocio a Joppa, nel Maryland, suggerendo che il problema potrebbe essere ripetibile o sistemico. Tesla ha affermato di essere intervenuta su quell’intersezione nel tentativo di correggere il comportamento anomalo.
Al centro dell’analisi della NHTSA vi sono questioni cruciali: se i conducenti abbiano avuto un preavviso adeguato in merito alle azioni inaspettate del sistema, in che misura il sistema abbia effettivamente consentito una supervisione sicura, se l’FSD abbia presentato in modo comprensibile le intenzioni future (ad esempio segnalando che avrebbe attraversato un incrocio) e se il sistema sia stato in grado di rilevare e interpretare correttamente segnali stradali, linee di carreggiata e segnali orizzontali.
È importante notare che Tesla non ha ancora rilasciato una dichiarazione pubblica specifica sull’indagine in corso. Tuttavia, nei giorni immediatamente precedenti era già in corso il roll-out di un aggiornamento software FSD versione 14.1, che in base a fonti del settore avrebbe apportato miglioramenti nella gestione delle corsie, degli incroci e del comportamento in contesti complessi.
L’apertura di questa inchiesta segna una fase delicata nel percorso di Tesla verso una guida sempre più autonoma. Fino a oggi, l’FSD è stato commercializzato come sistema “assistito” (SAE livello 2), che richiede che il conducente resti sempre pronto ad intervenire. Tuttavia, le segnalazioni raccolte suggeriscono che, in alcuni casi, il sistema ha preso decisioni che sembrano oltrepassare i limiti di ciò che un sistema “assistito” dovrebbe fare, lasciando poco margine di reazione.
La posta in gioco è alta. Se la NHTSA dovesse concludere che l’FSD induce comportamenti pericolosi, l’indagine potrebbe evolvere in un richiamo di massa (recall), oppure in restrizioni legali sull’utilizzo del sistema o sul modo in cui Tesla lo propone agli utenti. Nel frattempo, l’esito dell’indagine potrà influenzare anche la percezione pubblica sull’affidabilità dell’autonomia nei veicoli, non solo per Tesla ma per l’intero settore delle tecnologie di guida assistita.
Da osservare che questa non è la prima indagine significativa su sistemi di guida Tesla: nel 2024 la NHTSA aveva in corso un’inchiesta su 2,4 milioni di veicoli per incidenti in condizioni di visibilità ridotta, incluso almeno un sinistro mortale.