IIT Jodhpur e AIIMS Jodhpur sviluppano “guanti parlanti” per persone diversamente abili
 
Gli innovatori dell’Indian Institute of Technology (IIT) Jodhpur e dell’All India Institute Of Medical Science (AIIMS) Jodhpur , in un’iniziativa congiunta, hanno sviluppato “guanti parlanti” a basso costo per le persone con disabilità del linguaggio. Il dispositivo sviluppato costa meno di 5000 rupie, che utilizza i principi dell’intelligenza artificiale (AI) e dell’apprendimento automatico (ML) per generare automaticamente un discorso che sarà indipendente dalla lingua e faciliterà la comunicazione tra persone mute e persone normali. Può aiutare le persone a convertire i gesti delle mani in testo o voci preregistrate. Quindi, rende indipendente una persona diversamente abile e comunica il suo messaggio in modo efficace.

Prof Sumit Kalra, Assistant Professor, Department of Computer Science and Engineering, IIT Jodhpur, insieme al suo team di innovatori tra cui il Dr Arpit Khandelwal di IIT Jodhpur e il Dr Nithin Prakash Nair (SR, ENT), il Dr Amit Goyal (Prof & Head, ENT), il dottor Abhinav Dixit (Prof, Dipartimento di Fisiologia), di AIIMS Jodhpur, ha recentemente acquisito un brevetto per questa innovazione.

 
“Il dispositivo di generazione del parlato indipendente dalla lingua riporterà le persone al mainstream nell’era globale di oggi senza alcuna barriera linguistica. Gli utenti del dispositivo devono imparare solo una volta e sarebbero in grado di comunicare verbalmente in qualsiasi lingua con le loro conoscenze. Inoltre, il dispositivo può essere personalizzato per produrre una voce simile alla voce originale dei pazienti, il che la fa sembrare più naturale durante l’utilizzo del dispositivo”, ha affermato il professor Sumit Kalra , assistente professore, Dipartimento di informatica e ingegneria, IIT Jodhpur.

Nel dispositivo sviluppato, i segnali elettrici sono generati dal primo insieme di sensori, indossabili su una combinazione di pollice, dito(i) e/o polso della prima mano di un utente. Questi segnali elettrici sono prodotti dalla combinazione di dita, pollice, mano e movimenti del polso. Analogamente, i segnali elettrici sono invece generati anche dal secondo set di sensori. 

Questi segnali elettrici vengono ricevuti da un’unità di elaborazione del segnale . 

 
L’ampiezza dei segnali elettrici ricevuti viene confrontata con una pluralità di combinazioni predefinite di grandezze memorizzate in una memoria utilizzando l’unità di elaborazione del segnale. Utilizzando algoritmi AI e ML , queste combinazioni di segnali vengono tradotte in fonetiche corrispondenti ad almeno una consonante e una vocale. In un’implementazione di esempio, la consonante e la vocale possono provenire dalla fonetica della lingua hindi. Una fonetica viene assegnata ai segnali elettrici ricevuti in base al confronto.

 

Un segnale audio è generato da un trasmettitore audio corrispondente alla fonetica assegnata e basato su dati addestrati associati a caratteristiche vocali memorizzate in un’unità di apprendimento automatico. La generazione di segnali audio secondo la fonetica che ha una combinazione di vocali e consonanti porta alla generazione del discorso e consente al discorso alterato di comunicare in modo udibile con gli altri. La tecnica di sintesi vocale del presente argomento utilizza la fonetica, e quindi la generazione del parlato è indipendente da qualsiasi lingua.

Negli ultimi anni, il progresso tecnologico nel campo dei dispositivi elettromedicali per il supporto vitale, dei dispositivi biomedici impiantabili e dei dispositivi medici indossabili ha fornito con successo abilità artificiali a persone afflitte legate a qualsiasi tipo di disabilità o menomazione. L’innovazione brevettata di IIT Jodhpur e AIIMS Jodhpur è un grande passo avanti in questo campo.

Il team sta ulteriormente lavorando per migliorare le caratteristiche come durata, peso, reattività e facilità d’uso del dispositivo sviluppato. Il prodotto sviluppato sarà commercializzato attraverso una startup incubata da IIT Jodhpur. 

Di ihal