CES 2022: l’intelligenza artificiale guida l’innovazione nella tecnologia “intelligente” 

Nonostante tutte le storie sulle grandi aziende che si sono salvate dal CES 2022 a causa dell’ultima ondata di casi di COVID-19, lo spettacolo di elettronica di consumo a Las Vegas è ancora il posto dove stare per robot, veicoli autonomi, gadget intelligenti e i loro inventori: un’opportunità per fare il punto su ciò che è necessario per costruire l’intelligenza della macchina pratica in un prodotto di consumo.

Sforzi per migliorare l’integrazione dei dati all’interno dei veicoli e consolidare le capacità di elaborazione ( Sonatus ) e stabilire un sistema operativo o un framework comune per l’informatica automobilistica ( Apex.ai ).
Un kit di retrofit per la guida autonoma per i veicoli esistenti, con un software che evita l’IA all’avanguardia a favore di programmi deterministici e vincoli pratici su dove opererà il veicolo ( Perrone Robotics ).
Robot per la consegna di cibo e vendita al dettaglio per l’uso all’interno degli aeroporti e per la consegna a bordo strada ( Ottonomy ).
Telecamere intelligenti rivolte al conducente per auto e camion che emettono un avviso quando un conducente si addormenta o non guarda la strada, sia per flotte industriali ( SmartWitness ) o come dispositivo di sicurezza dei consumatori ( Xperi ) o dashcam di miglioramento ( NextBase ), dove la possibilità di registrare incidenti stradali o arresti stradali aggressivi della polizia è un ulteriore vantaggio.
Un framework software per l’esecuzione di modelli di intelligenza artificiale di reti neurali profonde su dispositivi piccoli e con limitazioni di potenza ( Deeplite ).
Una partnership tra Fluent.ai , specialista in intelligenza artificiale vocale, e gli esperti di tecnologia audio di Knowles Corp. , su applicazioni di comando vocale per dispositivi compatti a bassa potenza.
Visione artificiale racchiusa in dispositivi compatti per ipovedenti in grado di leggere – ed estrarre significato da – un’intera pagina di testo a colpo d’occhio, nonché un apparecchio acustico che utilizza segnali visivi come leggere le labbra della persona con cui l’ascoltatore sta parlando ad una festa per sapere quali suoni amplificare ( OrCam ).
OrCam e Sonatus sono tra le aziende che non hanno più intenzione di viaggiare a Las Vegas o di annunciare prodotti al CES, ed è possibile che anche alcuni degli altri fornitori VentureBeat intervistati prima dell’evento non si presenteranno. Grandi nomi come Microsoft, Google, Intel, Amazon e T-Mobile si sono ritirati nelle ultime settimane. Realtà aumentata, realtà virtuale e metaverso saranno argomenti di discussione che dovranno procedere senza Meta (l’azienda precedentemente nota come Facebook). La tecnologia automobilistica sarà un grande tema dell’evento, ma General Motors, BMW e Mercedes-Benz hanno deciso di non partecipare (la presenza completamente digitale di GM dovrebbe ancora includere un keynote video dell’amministratore delegato Mary Barra mercoledì). D’altra parte, alcuni come Perrone Robotics avevano già spedito veicoli e allestito una pista di prova, indicando il loro impegno

 
Tuttavia, la Consumer Technology Association, che sponsorizza l’evento, ha stabilito che lo spettacolo deve continuare. Nonostante il grande dramma aziendale, l’esposizione e il networking al CES rimangono un’opportunità per “migliaia di aziende più piccole, imprenditori e innovatori che hanno investito nella costruzione delle loro mostre e contano su CES per il loro business, ispirazione e futuro”, CEO di CTA Gary Shapiro ha scritto in un editoriale per il Las Vegas Review-Journal .

Guidare il progresso dell’IA
Sebbene gli espositori del CES abbiano lanciato VentureBeat su tutto, compresi i prodotti per il benessere sessuale, VB ha cercato briefing relativi agli usi dei dati e dell’intelligenza artificiale da cui i lettori possono imparare. In particolare, i produttori di dispositivi consumer tendono a voler sfruttare il cloud per gli aggiornamenti di software e dati senza dipendere dal cloud, con l’intelligenza del dispositivo intelligente residente sul dispositivo stesso. Quindi vale la pena studiarli come pionieri nell’edge computing.

Per quanto la tecnologia aziendale debba imparare dal mondo della tecnologia di consumo, è vero anche il contrario. Ad esempio, Jeffrey Chou, CEO e fondatore di Sonatus, ha affermato che un modo per migliorare i sistemi computerizzati nelle automobili è imparare dal modello del data center aziendale. In altre parole, il software in silos in esecuzione su molti piccoli computer (unità di controllo elettroniche o ECU nel gergo automobilistico) deve essere semplificato e collegato al middleware, fornito da Sonatus. Tale unificazione deve avvenire preservando le prestazioni in tempo reale per i sistemi di sicurezza dei veicoli e affrontando nuovi problemi come la sicurezza informatica dei veicoli.

 
“Non esiste una soluzione a breve termine. La soluzione a lungo termine è fare bene il software”, ha detto Chou.

Apex.ai ha una storia in qualche modo simile sul miglioramento delle basi software per la guida autonoma e altre tecnologie per veicoli intelligenti, che, nel suo caso, hanno comportato una serie di miglioramenti e ottimizzazioni per ROS, il sistema operativo robotico open source (considerato più di un quadro di programmazione). “Non esiste un’azienda nel settore automobilistico che non utilizzi ROS per la prototipazione”, ha affermato il CEO Jan Becker, aggiungendo che i prodotti della sua azienda aiutano a trasformare prototipi di successo in prodotti di produzione.

Secondo Becker, il consolidamento automatico dei processori sta aprendo la strada a software più sofisticati. “La tendenza che vediamo ora – che Tesla ha introdotto un paio di anni fa e tutti gli altri lo stanno introducendo nei prossimi tre anni – è avere quei computer centrali più potenti, per l’infotainment per i sistemi di guida, potenzialmente per un gateway potenzialmente poi anche per le funzioni di sicurezza del veicolo come l’ESP e la frenata antibloccaggio dell’ABS”, ha affermato.

Allo stesso tempo, Becker ha notato che sono passati anni da quando gli appassionati di auto a guida autonoma hanno iniziato a prevedere che i taxi robot avrebbero vagato per le strade da un giorno all’altro. “La verità è che il problema è davvero, davvero difficile. Ciò che il nostro settore ha iniziato a capire meglio negli ultimi due anni è quali applicazioni sono commercialmente ragionevoli”, ha affermato. Ad esempio, molto prima che la guida completamente autonoma diventi disponibile e conveniente nelle autovetture che devono poter andare ovunque, può essere pratica per i veicoli commerciali che percorrono percorsi noti e redditizi.

 
Perrone Robotics sta applicando questo approccio ai veicoli commerciali autonomi che possono navigare negli scali merci o circolare attraverso percorsi di autobus urbani o universitari. Sebbene abbia partnership con produttori di veicoli elettrici come GreenPower Motor Company, Perrone vende anche un kit di retrofit che funziona con i pedali, la trasmissione e il volante dei veicoli convenzionali per renderli autonomi per il funzionamento a bassa velocità su un percorso noto. “Ci sarà un percorso molto lungo verso l’autonomia”, ha affermato il CEO Paul Perrone. “Il mio focus è su, ecco cosa puoi fare ora.”

In effetti, è un po’ un contrarian: piuttosto che inseguire applicazioni AI all’avanguardia, tende a “software deterministico”, la cui logica è più facile da certificare come sicura per il funzionamento di un veicolo . “Non puoi semplicemente addestrarlo con un sistema di apprendimento probabilistico che probabilmente lo porterà a destinazione”, ha detto.

Nel frattempo, Ottobot sta capitalizzando sulle innovazioni automobilistiche, come i telemetri lidar, da utilizzare nei suoi robot di consegna, che hanno iniziato a navigare nei corridoi dell’aeroporto internazionale di Cleveland nel dicembre 2020. Ottobot ha anche recentemente annunciato una partnership con la società di tecnologia di ristorazione Presto per il marciapiede e il parcheggio consegna di ordini di cibo con meno manodopera richiesta.

Pur sfruttando la tecnologia dei veicoli autonomi, Ottobot ha innovato in altre direzioni per consentire ai suoi robot di andare dove molti altri robot di consegna non possono perché, come le auto, si affidano alla navigazione GPS. Per lavorare all’interno di un aeroporto, ad esempio, Ottobot crea una simulazione software della planimetria. “Creiamo un gemello digitale e poi navighiamo all’interno di esso”, ha affermato il CEO Ritukar Vijay. Anche la disposizione dei sensori deve essere diversa per navigare tra la folla e vedere le barriere di vetro.

Ridimensionamento
Mentre automobili e robot stanno catturando una crescente attenzione al CES , lo spettacolo è meglio conosciuto per la presentazione di gadget più piccoli.

 
Quando i produttori di dispositivi parlano di incorporare l’intelligenza artificiale, in genere ciò non significa aspettarsi che grandi modelli di intelligenza artificiale vengano eseguiti sul dispositivo. Un gadget può incorporare o meno alcune modeste capacità di apprendimento automatico, ma in genere l’addestramento del modello avviene nel cloud mentre ciò che viene installato sul dispositivo è un modello di inferenza molto più compatto per interpretare e agire sui dati dei sensori. Anche con questa semplificazione, l’ottimizzazione del software per l’esecuzione entro i limiti di dimensioni, potenza e elaborazione di un determinato dispositivo può essere una sfida impegnativa.

Ad esempio, le tecnologie di assistenza di OrCam per non vedenti e ipovedenti sono in fattori di forma delle dimensioni di una magia o di una fotocamera a clip per un paio di occhiali. Quindi, mentre il vicepresidente della ricerca e sviluppo, Oren Tadmor, rispetta i processori AI di aziende come Nvidia, “non sono computer che possiamo mai sognare di inserire nei nostri dispositivi”, ha affermato. Invece, l’azienda finisce per lavorare con chipset specializzati per l’elaborazione della visione.

Allo stesso tempo, afferma Tamdor, OrCam è stata in grado di sfruttare i grandi progressi nello stato dell’arte per l’apprendimento profondo applicato alla visione artificiale, che ha reso i problemi come il riconoscimento facciale molto più facili da risolvere. OrCam è un’azienda israeliana i cui cofondatori Amnon Shashua e Ziv Aviram hanno anche fondato Mobileye, leader nella visione artificiale per la prevenzione delle collisioni e la tecnologia delle auto a guida autonoma.

“Per la visione artificiale, possiamo fare qualsiasi cosa, o quasi, che una persona può”, ha detto Tamdor. “E si tratta solo di trovare, quali sono le funzionalità che i nostri utenti possono utilizzare?”

Ottimizzazione software e hardware
A volte possono essere necessarie ottimizzazioni specifiche dell’hardware, ma ciò non impedisce ai produttori di strumenti software di cercare di promuovere un approccio più standardizzato alla programmabilità dei dispositivi. “Penso che una delle cose entusiasmanti qui sia l’interazione tra questi due tipi di ottimizzazioni”, ha affermato Davis Sawyer, cofondatore e chief product officer di Deeplite. “Dove i due si incontrano, è lì che vediamo aumenti dal 400 al 500% rispetto all’uno o all’altro da soli”.

 
Al CES, Deeplite ha annunciato il kit di sviluppo software Deeplite Runtime per la creazione di modelli di deep learning efficienti basati su Pytorch, in particolare per applicazioni di visione artificiale. Laddove il precedente prodotto Deeplite Neutrino dell’azienda funzionava con GPU e altri tipi di processori, il nuovo Deeplite Runtime è specifico per la compilazione di applicazioni da eseguire su processori ARM, che sono tra i più popolari sui dispositivi intelligenti.

“Data la prevalenza di cose come le CPU ARM , la familiarità con gli sviluppatori e anche il profilo di basso consumo per i dispositivi alimentati a batteria, è lì che penso che [ci siano] molte opportunità create”, ha detto Sawyer.

Fluent.ai, un lettore di software per dispositivi incentrato sui sistemi di comando vocale, mira ad essere “il più indipendente possibile dall’hardware”, ha affermato il CEO Probal Lala. Tuttavia, con alcuni partner hardware è più facile lavorare rispetto ad altri. Al CES, Fluent.ai annuncia una partnership con lo specialista di tecnologia audio Knowles, e insieme dimostreranno degli auricolari a comando vocale.

Per Knowles, l’attrazione è che il software di Fluent.ai funziona in modo efficiente, senza dipendere dai servizi cloud o dalla potenza e dalla capacità di rete necessarie per accedervi. “Offrono un ampio set di comandi, il più grande che abbia mai visto completamente offline”, ha affermato Raj Senguttuvan, direttore del marketing strategico per le soluzioni audio e di rilevamento di Knowles. Ciò apre una vasta gamma di opportunità di intrattenimento e applicazioni aziendali, ha affermato.

L’ottimizzazione chiave di Fluent è che abbrevia il modello di applicazione vocale comune di tradurre la voce in testo e quindi eseguire ulteriori elaborazioni sul testo. Invece, il software esegue la corrispondenza dei modelli lavorando direttamente con i dati audio.

Per l’innovazione tecnologica intelligente, aggiungi solo immaginazione
La crescente varietà di tecnologie di base, comprese le capacità di intelligenza artificiale, dovrebbe farti pensare alle opportunità di business.

 
“Sono fermamente convinto che la tecnologia non significhi nulla per l’utente finale senza un po’ di immaginazione su come migliorerà le loro vite”, Richard Browning, chief sales and marketing officer di NextBase, produttore di dash cam per auto.

Per NextBase, ciò significa re-immaginare come la dashcam può andare oltre l’essere solo una telecamera di sicurezza mobile che puoi utilizzare per condividere filmati di incidenti con la tua compagnia assicurativa. La semplice sfida di produrre un buon video in condizioni che possono variare dalla luce del giorno abbagliante alla luce del giorno piovosa è abbastanza ripida e richiede una certa potenza di elaborazione delle immagini AI , afferma Browning. Il prodotto NextBase IQ annunciato alla fiera e pronto per la spedizione a settembre migliora ulteriormente questa capacità per fornire anche assistenza alla guida (riconoscendo quando gli altri guidatori si comportano male) e consapevolezza spaziale (anticipando gli incidenti in modo che possano essere registrati in modo più completo).

L’aggiunta di una fotocamera rivolta verso l’interno consente al sistema di rilevare e avvertire i conducenti assonnati o distratti, ma consente anche di acquisire prove video che non verrebbero catturate da una fotocamera frontale come la rabbia della strada o un “arresto aggressivo della strada” incidenti. Con un comando vocale, il dispositivo può essere attivato in modalità “testimone” per registrare esattamente come ti comporti quando un poliziotto si avvicina al veicolo e ti chiede la patente e l’assicurazione.

In modalità testimone, attivato da un comando vocale o da sensori che rilevano che si è verificato un incidente, il video viene trasmesso a un account cloud per una revisione successiva. Le versioni precedenti dei prodotti NextBase richiedevano che il driver scaricasse manualmente i dati video sul telefono.

 
Con queste e altre caratteristiche, NextBase IQ ha quasi superato la categoria “dashcam” come era stata definita in precedenza, tranne che la società non riesce a capire come chiamarla, se non una “dashcam intelligente”, afferma Browning. “Al giorno d’oggi le persone capiscono cos’è “intelligente” – hanno una casa intelligente, una sicurezza intelligente, una salute intelligente – è un prodotto connesso e intelligente.”

 

Di ihal