Wayve AI ha fatto un passo da gigante verso la realizzazione di auto a guida autonoma veramente affidabili con il lancio di LINGO-2, un modello rivoluzionario che unisce visione, linguaggio e azione.
Immaginate un’auto che non solo vede e reagisce a ciò che la circonda, ma è anche in grado di spiegare le sue azioni in modo naturale e comprensibile. Questo è ciò che LINGO-2 rende possibile.
A differenza del suo predecessore, LINGO-1, che poteva solo commentare a posteriori le manovre di guida, LINGO-2 è in grado di generare commenti in tempo reale mentre controlla attivamente il veicolo. Questo permette di capire perché l’auto sta facendo determinate scelte, come rallentare per un pedone o sorpassare un’altra auto.
Al cuore di LINGO-2 ci sono due moduli: un modello di visione Wayve e un modello linguistico autoregressivo. Il modello di visione analizza le immagini provenienti dalle telecamere dell’auto, mentre il modello linguistico trasforma queste informazioni in un linguaggio comprensibile per gli esseri umani.
In pratica, LINGO-2 “vede” la strada, “comprende” ciò che sta accadendo e poi “spiega” le sue decisioni di guida attraverso un commento audio.
Un altro punto di forza di LINGO-2 è la sua adattabilità. Può essere “diretto” attraverso suggerimenti linguistici, come “accosta” o “gira a destra”, per regolare il suo comportamento di guida. Questo non solo facilita l’addestramento del modello, ma apre anche nuove possibilità per l’interazione tra esseri umani e veicoli autonomi.
Inoltre, LINGO-2 è in grado di rispondere in tempo reale a domande sull’ambiente circostante e sul suo processo decisionale. Questo lo rende uno strumento prezioso per comprendere meglio il funzionamento della guida autonoma e per aumentare la fiducia degli utenti in questa tecnologia.