Un team internazionale di ricercatori ha sviluppato un dispositivo indossabile brain-machine (BMI) che potrebbe migliorare la qualità della vita delle persone con disfunzione motoria o paralisi. Potrebbe anche aiutare le persone con sindrome di blocco, ovvero quando una persona non è in grado di muoversi o comunicare nonostante sia cosciente.

Il team era guidato dal laboratorio di Woon-Hong Yeo presso il Georgia Institute of Technology e comprendeva ricercatori dell’Università del Kent nel Regno Unito e della Yonsei University nella Repubblica di Corea. Il team ha combinato l’elettronica del cuoio capelluto morbido wireless e la realtà virtuale in un unico sistema BMI. Il sistema consente agli utenti di controllare una sedia a rotelle o un braccio robotico semplicemente immaginando le azioni.

Il nuovo BMI è stato dettagliato sulla rivista Advanced Science il mese scorso.

Un dispositivo più comodo
Yeo è professore associato presso la George W. Woodruff School of Mechanical Engineering.

“Il principale vantaggio di questo sistema per l’utente, rispetto a quello attualmente esistente, è che è morbido e comodo da indossare e non ha fili”, ha affermato Yeo.

I sistemi BMI possono analizzare i segnali cerebrali e trasmettere l’attività neurale in comandi, che è ciò che consente agli individui di immaginare le azioni da eseguire per il BMI. L’elettroencefalogramma, o EEG, è il metodo non invasivo più comune per acquisire i segnali, ma spesso richiede una calotta cranica con molti fili. 

Per utilizzare questi dispositivi, è necessario l’uso di gel e paste per mantenere il contatto con la pelle e tutta questa configurazione richiede tempo e risulta scomoda per l’utente. Inoltre, i dispositivi spesso hanno una scarsa acquisizione del segnale a causa del degrado del materiale e degli artefatti da movimento, causati da cose come il digrignamento dei denti. Questo tipo di rumore apparirà nei dati del cervello e i ricercatori devono filtrarlo.

Apprendimento automatico e realtà virtuale
Il sistema EEG portatile progettato dal team migliora l’acquisizione del segnale grazie all’integrazione di elettrodi a microaghi intercettabili con circuiti wireless morbidi. Per misurare i segnali cerebrali, è fondamentale che il sistema determini quali azioni un utente desidera eseguire. Per raggiungere questo obiettivo, il team ha fatto affidamento su un algoritmo di apprendimento automatico e su un componente di realtà virtuale. 

I test effettuati dal team hanno coinvolto quattro soggetti umani e il passo successivo è testarlo su soggetti disabili. 

Yeo è anche direttore del Center for Human-Centric Interfaces and Engineering della Georgia Tech presso l’Institute for Electronics and Nanotechnology, nonché membro del Petit Institute for Bioengineering and Bioscience. 

“Questa è solo una prima dimostrazione, ma siamo entusiasti di ciò che abbiamo visto”, ha detto Yeo.

Nel 2019, lo stesso team ha introdotto un’interfaccia EEG cervello-macchina morbida e indossabile, e il lavoro includeva Musa Mahmood, che era l’autore principale sia di quella ricerca che di quella nuova.

“Questa nuova interfaccia cervello-macchina utilizza un paradigma completamente diverso, che coinvolge azioni motorie immaginarie, come afferrare con entrambe le mani, che libera il soggetto dal dover guardare troppi stimoli”, ha affermato Mahmood.

Lo studio del 2021 ha coinvolto gli utenti che hanno dimostrato un controllo accurato degli esercizi di realtà virtuale con i loro pensieri o immagini motorie. 

“Le istruzioni virtuali si sono dimostrate molto utili”, ha detto Yeo. “Accelerano e migliorano il coinvolgimento e la precisione degli utenti. E siamo stati in grado di registrare un’attività di immaginazione motoria continua e di alta qualità”.

Mahmood afferma che il team si concentrerà ora sull’ottimizzazione del posizionamento degli elettrodi e sull’integrazione più avanzata dell’EEG basato sullo stimolo.

 

Di ihal