Il media scientifico americano Neuroscience ha riferito che i ricercatori della Cornell University hanno sviluppato occhiali AI chiamati “Ecospeech”, che utilizzano il rilevamento del suono e la tecnologia AI per riconoscere le parole di chi le indossa solo con movimenti delle labbra e onde sonore e visualizzarle come testo su uno smartphone.
Dotati di un paio di micro-microfoni e altoparlanti, questi occhiali funzionano secondo il principio di rilevare le onde sonore e i movimenti delle labbra e quindi di analizzarli con un algoritmo di deep learning per trovare e fornire la parola con una precisione del 95%.
Sembra essere utile per comunicare con gli altri in luoghi in cui è scomodo o inappropriato parlare, come una tranquilla biblioteca o un ristorante rumoroso, collegandolo a uno smartphone tramite Bluetooth. Sullo smartphone, i comandi silenziosi vengono convertiti in testo e visualizzati.
Il professor Yi-dong Ryu, che ha guidato il gruppo di ricerca, ha dichiarato: “Per coloro che non possono emettere un suono, la tecnologia silenziosa può fungere da sintetizzatore vocale. È piccolo e di bassa potenza, quindi è adatto come dispositivo indossabile”.
Il professor Chang e altri ricercatori hanno in programma di presentare un documento che spieghi il processo di sviluppo di Echo Speech alla conferenza della Society for Computing Machinery (ACM) il mese prossimo.