Con l’avvicinarsi dell’adozione dei veicoli autonomi (AV), emerge una sfida fondamentale: come migliorare la comunicazione tra i passeggeri umani e i loro autisti robotici. Sebbene i veicoli autonomi abbiano compiuto progressi significativi nella navigazione, spesso faticano a comprendere comandi complessi e linguaggio naturale, a differenza dei conducenti umani.

Un innovativo studio della Purdue University, guidato dal professor Ziran Wang, ha cercato di affrontare questo problema integrando modelli linguistici di grandi dimensioni (LLM), come ChatGPT, nei sistemi di guida autonoma. Questi LLM, addestrati su vasti volumi di testo, sono in grado di comprendere contesti e sfumature, permettendo una comunicazione più fluida tra passeggeri e veicoli.

Gli LLM offrono la possibilità di interpretare una vasta gamma di istruzioni in linguaggio naturale. Ad esempio, un passeggero potrebbe semplicemente dire “Sono in ritardo” e l’auto ottimizzerebbe automaticamente il percorso. Oppure, se qualcuno dice “Mi sento un po’ male”, il veicolo potrebbe adattare il suo stile di guida per offrire un viaggio più confortevole.

Il team di ricerca ha testato l’integrazione di ChatGPT con un veicolo autonomo di livello quattro. Hanno addestrato il modello a rispondere sia a comandi diretti che indiretti e l’hanno integrato con i sistemi del veicolo per considerare variabili come traffico e condizioni stradali.

Gli esperimenti, condotti in un’area sicura a Columbus, Indiana, hanno mostrato risultati promettenti. I partecipanti hanno segnalato meno disagio rispetto ai veicoli autonomi standard e il sistema ha dimostrato di apprendere e adattarsi alle preferenze individuali dei passeggeri durante il viaggio.

Questa tecnologia potrebbe rendere i veicoli autonomi più accessibili, consentendo una comunicazione naturale e riducendo la curva di apprendimento per gli utenti. La personalizzazione delle interazioni potrebbe migliorare anche la sicurezza, permettendo ai veicoli di adattare il comportamento di guida in base allo stato dei passeggeri.

Dal punto di vista industriale, l’offerta di un’esperienza utente intuitiva potrebbe rappresentare un vantaggio competitivo per i produttori di veicoli autonomi.

Tuttavia, ci sono ancora sfide da affrontare. Attualmente, il tempo di risposta del sistema è di 1,6 secondi, il che potrebbe non essere sufficiente in situazioni critiche. Inoltre, il rischio di “allucinazioni” degli LLM, ovvero interpretazioni errate dei comandi, deve essere gestito con attenzione.

Il team di Wang sta esplorando nuovi modelli LLM e valutando la possibilità di comunicazione tra veicoli per gestire meglio il traffico. Stanno anche avviando ricerche su modelli di intelligenza artificiale addestrati su immagini per migliorare la capacità dei veicoli di affrontare condizioni meteorologiche avverse.

In conclusione, la ricerca della Purdue University rappresenta un passo importante verso un futuro in cui la comunicazione tra passeggeri e veicoli autonomi diventa fluida e intuitiva, aprendo la strada a un trasporto più sicuro e personalizzato.

Di Fantasy