In un altro importante sviluppo nelle protesi di intelligenza artificiale (AI), i ricercatori dell’Università della California a San Francisco hanno sviluppato con successo una “neuroprotesi vocale” che ha parzialmente ripristinato la parola a un uomo con grave paralisi. La nuova tecnologia lo ha aiutato a parlare in frasi quando traduceva i segnali dal suo cervello al tratto vocale. Le parole sono poi apparse come testo su uno schermo. 

Il lavoro ha coinvolto il primo partecipante a una sperimentazione di ricerca clinica ed è stato parte di un più ampio corpus di lavoro svolto da oltre dieci anni dal neurochirurgo UCSF Edward Chang, MD, che ha cercato di sviluppare una tecnologia che consente alle persone con la paralisi per comunicare anche quando non sono in grado di parlare da soli. 

Lo studio è stato pubblicato il 15 luglio sul New England Journal of Medicine . 

Primo sistema del suo genere
Chang è la Joan and Sanford Weill Chair of Neurological Surgery presso UCSF e Jeanne Robertson Distinguished Professor. È anche autore senior dello studio. 

“Per quanto ne sappiamo, questa è la prima dimostrazione di successo della decodifica diretta di parole complete dall’attività cerebrale di qualcuno che è paralizzato e non può parlare”, ha detto Chang. “Mostra una forte promessa di ripristinare la comunicazione attingendo al meccanismo vocale naturale del cervello”.

Il lavoro in questo campo ruota tradizionalmente attorno al ripristino della comunicazione attraverso approcci basati sull’ortografia per scrivere le lettere una per una nel testo. Tuttavia, il nuovo studio si concentra sulla traduzione di segnali che sono effettivamente destinati a controllare i muscoli del sistema vocale per pronunciare le parole. Questo è diverso dal lavoro tradizionale, che si concentra sui segnali che muovono il braccio o la mano. 

Secondo Chang, il nuovo approccio sfrutta gli aspetti naturali e fluidi del discorso e potrebbe portare a molti più progressi in questo settore. Ha anche affermato che gli approcci basati sull’ortografia che si basano sulla digitazione, sulla scrittura e sul controllo di un cursore sono molto più lenti.

“Con la voce, normalmente comunichiamo informazioni a una velocità molto elevata, fino a 150 o 200 parole al minuto”, ha affermato. “Andare dritti alle parole, come stiamo facendo qui, ha grandi vantaggi perché è più vicino a come parliamo normalmente.”

Il lavoro precedente di Chang si basava su pazienti presso l’UCSF Epilepsy Center che si stavano sottoponendo a neurochirurgia per rilevare cosa stava causando le loro convulsioni e utilizzava array di elettrodi posizionati sulla superficie del cervello dei pazienti. I pazienti avevano un linguaggio normale e i risultati hanno contribuito a portare allo studio in corso per le persone con paralisi. 

Alcuni dei nuovi metodi sviluppati dal team includevano un modo per decodificare i modelli di attività corticale e il linguaggio statistico per migliorare la precisione. 

David Moses, PhD, è un ingegnere post-dottorato nel Chang Lab e un altro degli autori principali.

 “I nostri modelli avevano bisogno di imparare la mappatura tra modelli complessi di attività cerebrale e discorso previsto”, ha detto Moses. “Ciò rappresenta una grande sfida quando il partecipante non può parlare.”

Il primo partecipante
Il primo partecipante al processo è stato un uomo sulla trentina che ha subito un ictus cerebrale oltre 15 anni fa che ha danneggiato gravemente la connessione tra il cervello e il tratto vocale e gli arti. 

Sviluppando un vocabolario di 50 parole che il team di Chang potrebbe riconoscere utilizzando algoritmi informatici avanzati, il partecipante è stato in grado di creare centinaia di frasi che esprimono concetti di vita quotidiana. 

Gli è stato richiesto di impiantare un array di elettrodi ad alta densità sulla corteccia motoria del linguaggio e, dopo il suo recupero, sono state registrate oltre 22 ore di attività neurale in questa regione del cervello in 48 sessioni. 

Sean Metzger, MS e Jessie Liu, BS, sono entrambi studenti di dottorato in bioingegneria presso il Chang Lab e sono stati responsabili dello sviluppo di modelli di rete neurale personalizzati in grado di tradurre i modelli di attività neurale registrata in parole specifiche. 

Dopo il test, il team ha scoperto che il sistema era in grado di decodificare le parole dall’attività cerebrale a una velocità massima di 18 parole al minuto, con una precisione del 93%. Il team ha applicato una funzione di “correzione automatica” al modello linguistico, che ha contribuito a migliorare la precisione.

 “Siamo stati entusiasti di vedere la decodifica accurata di una varietà di frasi significative”, ha detto Moses. “Abbiamo dimostrato che è effettivamente possibile facilitare la comunicazione in questo modo e che ha il potenziale per l’uso in contesti di conversazione”.

Il team ora espanderà lo studio per includere più partecipanti che soffrono di gravi paralisi e problemi di comunicazione. Stanno anche espandendo il numero di parole nel vocabolario e stanno lavorando per migliorare la velocità del discorso. 

“Questa è un’importante pietra miliare tecnologica per una persona che non può comunicare in modo naturale”, ha detto Moses, “e dimostra il potenziale di questo approccio per dare voce alle persone con grave paralisi e perdita del linguaggio”.

Di ihal