La scorsa settimana, gli appassionati di intelligenza artificiale sono stati serviti con due delle più grandi sciocchezze in diretta TV che hanno lasciato molti divisi. Questi due eventi, anche se divertenti, hanno costretto le persone a rivalutare la propria opinione sul futuro dell’intelligenza artificiale. Nella sezione successiva, daremo uno sguardo a ciò che accade dietro le quinte.

Roborace, soprannominato Motorsport 2.0, ha collaborato con artisti del calibro di Acronis, Nvidia , Arrival e Michelin per lanciare il primo evento di corsa del suo genere. Questo evento storico avrebbe dovuto incoraggiare gli innovatori a proporre soluzioni di guida autonoma praticabili e mostrare lo stato dell’arte del mondo.

Tuttavia, le cose non sono andate come previsto. Il live streaming dell’evento cattura il veicolo di Acronis mentre guida dritto contro un muro sorprendendo i suoi ingegneri e lasciando gli spettatori a pezzi. Il pasticcio è stato affrontato da uno degli ingegneri in un post di Reddit .

“Il vero fallimento è avvenuto molto prima del momento dell’incidente, nel giro di inizializzazione”, ha scritto uno degli ingegneri.

L’ingegnere ha spiegato che durante il giro di inizializzazione è successo qualcosa che apparentemente ha causato il passaggio del segnale di comando dello sterzo su NaN (non un numero) e successivamente lo sterzo si è bloccato al valore massimo a destra.

“… il comando di accelerazione è andato normalmente ma lo sterzo era bloccato a destra.” L’ingegnere ha inoltre aggiunto di aver esaminato i valori di registro e ha notato che sebbene il controller abbia cercato di riportare l’auto a sinistra, non ha funzionato a causa del bloccasterzo. “Anche la traiettoria desiderata era buona, la macchina sicuramente non aveva intenzione di entrare nel muro”, ha spiegato l’ingegnere.

Gli utenti del forum non hanno trovato la risposta del tutto convincente. Hanno iniziato a indagare su cosa poteva davvero essere andato storto. “Il verificarsi di NaN è un sintomo e non una causa”, ha affermato Sanjeev Sharma , fondatore dell’azienda di guida autonoma, Swaayatt Robots. “NaN è un sintomo di una parte del codice che non riesce a svolgere correttamente il proprio lavoro e non è il problema in sé”, ha aggiunto.

<iframe width="1116" height="628" src="https://www.youtube.com/embed/RWctjCCEM5g" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Riconoscendo le domande riguardanti se ci fosse un punto di controllo per contrastare le conseguenze di NaN, l’ingegnere ha scritto che hanno un sistema di modalità di guasto in atto e lo scenario previsto è quello di mettere l’auto in frenata di emergenza una volta che uno dei sistemi diventa non funzionante o smette di produrre qualsiasi output.

Inoltre, gli utenti di Reddit sono stati sorpresi di apprendere che il team Acronis stava usando Matlab per questa gara. Tuttavia, non è chiaro in che misura sia stato utilizzato Matlab. Non c’è niente di sbagliato nell’usare MATLAB, ma i professionisti usano raramente MATLAB per la distribuzione. L’utilizzo di MATLAB è per lo più limitato alla ricerca in cui si desidera dimostrare un’idea senza preoccuparsi del tempo di esecuzione.

Le persone che hanno familiarità con la costruzione di sistemi di guida autonoma hanno affermato che questo potrebbe essere stato un processo di alto livello che ha fallito e che si è tradotto sotto forma di NaN a controller di basso livello. Oppure potrebbe essere solo un’eccezione di valore o un codice di gestione delle eccezioni errato.

Sebbene il team Acronis abbia ammesso di non conoscere effettivamente la causa esatta, ha ritenuto che si sarebbe trattato di un breve picco di input per il controller, che è un evento molto raro. Normalmente, tali picchi vengono filtrati, ma a causa di alcune configurazioni, si sono intrufolati nel sistema. “Avevamo testato giorni prima e non l’avevamo mai sperimentato”, ha scritto l’ingegnere.

<iframe width="1116" height="628" src="https://www.youtube.com/embed/SPbTKfu0zUY" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Quando si tratta di auto a guida autonoma , non possiamo mai dire che il 99% sia sufficiente. Non possiamo permetterci alcun evento anomalo. Questo è uno dei motivi per cui le auto completamente autonome non sono ancora un fenomeno mondiale. Tuttavia, il climax è andato bene per la squadra che ha preso il secondo posto nella classifica finale.

La squadra scozzese Inverness Caledonian Thistle Football Club aveva schierato una telecamera AI per trasmettere in streaming la partita contro l’Ayr United.

La telecamera è programmata per seguire la palla per tutta la partita; invece, la telecamera ha iniziato a fare una panoramica verso il guardalinee che si trova lontano dall’azione. Il guardalinee sfoggiava un aspetto calvo che, secondo i rapporti, avrebbe potuto confondere l’algoritmo per un pallone da calcio. I commentatori hanno dovuto scusarsi per questa confusione poiché agli spettatori è stato mostrato il guardalinee che sventolava la bandiera per la maggior parte del tempo.

Le installazioni di telecamere 4K alimentate da AI stanno aiutando le squadre di calcio più piccole a ridurre i costi. Tutto quello che devi fare è montare la fotocamera sul treppiede che spedisce, ed è a posto. Queste telecamere possono eseguire panoramiche, zoom e coprire ore di riprese in 4K. Ma, quando queste telecamere scambiano le teste calve per palloni da calcio, è meglio che un cameraman alle prime armi utilizzi l’attrezzatura. Gli scettici dell’IA potrebbero persino estendere questo errore alla visione artificiale in generale. Se dati ampiamente abbondanti come le palle e le teste umane possono confondere gli algoritmi, come si comporteranno quando incontrano un’anomalia, una cellula cancerosa, potrebbero obiettare.

Per quanto vorremmo vedere l’IA avere successo in attività umane banali, eventi come i menzionati sopra suggeriscono che l’IA è lontana da non richiedere la supervisione umana. Successi come GPT-3 e AlphaGo ci danno l’impressione che AGI sia a portata di mano. Tuttavia, distribuirlo nel mondo reale si apre abbastanza spesso una nuova lattina di worm per l’IA. Gli algoritmi per la costruzione di sistemi che prevedono il prossimo acquisto del festival possono essere difettosi, ma non si può scusare un bloccasterzo in una strada trafficata.

Di ihal