Look to Speak di Google sfrutta l’intelligenza artificiale che traccia lo sguardo per aiutare gli utenti con disabilità a comunicare

Quando si tratta delle aspettative dei clienti, la pandemia ha cambiato tutto
Scopri come accelerare il servizio clienti, ottimizzare i costi e migliorare il self-service in un mondo incentrato sul digitale.

Google ha lanciato oggi un’app sperimentale per Android che sfrutta l’intelligenza artificiale per rendere la comunicazione più accessibile alle persone con disabilità motorie e della parola. Chiamato Look to Speak, tiene traccia dei movimenti degli occhi per consentire alle persone di usare gli occhi per selezionare frasi predefinite e personalizzabili e farle pronunciare ad alta voce.

Circa 18,5 milioni di persone negli Stati Uniti hanno problemi di linguaggio, voce o linguaggio. I dispositivi di tracciamento dello sguardo possono fornire una parvenza di indipendenza, ma spesso non sono portatili e tendono ad essere costosi. Ad esempio, l’eye tracker Tobii 4C entry-level parte da $ 150.

Per rispondere a questa esigenza, il logopedista e linguista Richard Cave ha iniziato a collaborare con un piccolo gruppo di Google per sviluppare Look to Speak. L’app, disponibile gratuitamente e compatibile con Android 9.0 e versioni successive, consente agli utenti di guardare a sinistra, a destra o in alto per selezionare ciò che desiderano dire da un elenco di frasi.

Sopra: l’app Look to Speak di Google utilizza fotocamere frontali e intelligenza artificiale per il monitoraggio dello sguardo per riconoscere l’intento.

Con Look to Speak, le persone possono personalizzare le parole e le frasi nel loro elenco e regolare le impostazioni di sensibilità dello sguardo. Google afferma che i dati dell’app rimangono privati ​​e non lascia mai il telefono su cui è installata.

Look to Speak fa parte dell’iniziativa Start with One di Google su Experiments with Google, una piattaforma per progetti ed esperimenti di intelligenza artificiale creata da ingegneri di Google e altri sviluppatori. Ma il lavoro dell’azienda nell’intelligenza artificiale per l’accessibilità si estende oltre un ecosistema .

All’inizio di ottobre, Google ha annunciato che avrebbe portato l’Assistente Google nelle app e nei servizi di Tobii Dynavox , consentendo agli utenti con esigenze di accessibilità di assegnare riquadri virtuali alle azioni che controllano i dispositivi e gli elettrodomestici intelligenti. Le aziende hanno anche collaborato per integrare Action Blocks, elementi dell’interfaccia utente che rendono più facile per le persone con disabilità cognitive utilizzare l’Assistente Google, con le migliaia di simboli basati su immagini di Tobii per effettuare chiamate, inviare testi, riprodurre video e altro ancora.

A novembre, Google ha presentato le linee guida del progetto , che utilizza l’intelligenza artificiale per aiutare gli utenti ipovedenti a navigare nei corsi in esecuzione. E Google sta continuando a sviluppare Lookout , un’app incentrata sull’accessibilità in grado di identificare gli alimenti confezionati utilizzando la visione artificiale, scansionare documenti per semplificare la revisione di lettere e posta e altro ancora. C’è anche il Progetto Euphonia , che mira ad aiutare le persone con disturbi del linguaggio a comunicare più facilmente; Live Relay , che utilizza il riconoscimento vocale sul dispositivo e la sintesi vocale per consentire ai telefoni di ascoltare e parlare per conto di una persona; e Project Diva , che aiuta le persone a dare i comandi dell’Assistente Google senza usare la voce.

Di ihal