Brain Implants e AI Model utilizzati per tradurre il pensiero in testo
I ricercatori dell’Università della California, San Francisco, hanno recentemente creato un sistema di intelligenza artificiale in grado di produrre testo analizzando l’attività cerebrale di una persona, essenzialmente traducendo i loro pensieri in testo. L’intelligenza artificiale prende i segnali neurali da un utente e li decodifica e può decifrare fino a 250 parole in tempo reale in base a un set compreso tra 30 e 50 frasi.
Come riportato dall’Independent , il modello AI è stato addestrato sui segnali neurali raccolti da quattro donne. I partecipanti all’esperimento avevano elettrodi impiantati nel cervello per monitorare l’insorgenza di convulsioni epilettiche. I partecipanti sono stati istruiti a leggere le frasi ad alta voce e i loro segnali neurali sono stati inviati al modello AI. Il modello è stato in grado di discernere l’attività neuronale correlata a parole specifiche e gli schemi allineati con le parole reali circa il 97% delle volte, con un tasso di errore medio di circa il 3%.
Questa non è la prima volta che i segnali neurali sono stati correlati con frasi, i neuroscienziati hanno lavorato su progetti simili per oltre un decennio. Tuttavia, il modello di intelligenza artificiale creato dai ricercatori mostra un’accuratezza impressionante e opera più o meno in tempo reale. Il modello utilizza una rete neurale ricorrente per codificare l’attività neurale in rappresentazioni che possono essere tradotte in parole. Come dicono gli autori nel loro articolo:
“Prendendo spunto dai recenti progressi nella traduzione automatica, abbiamo addestrato una rete neurale ricorrente per codificare ogni sequenza di attività neuronali di lunghezza di frase in una rappresentazione astratta, e quindi per decodificare questa rappresentazione, parola per parola, in una frase inglese.”
Secondo ArsTechnica , al fine di comprendere meglio come sono stati fatti i collegamenti tra segnali e parole neuronali, i ricercatori hanno sperimentato disabilitando diverse parti del sistema. La disabilitazione sistematica ha chiarito che l’accuratezza del sistema era dovuta alla rappresentazione neurale. È stato anche scoperto che la disabilitazione degli ingressi audio al sistema faceva saltare gli errori, ma le prestazioni complessive erano ancora considerate affidabili. Ovviamente, ciò significa che il sistema potrebbe essere potenzialmente utile come dispositivo per coloro che non possono parlare.
Quando diverse parti dell’ingresso dell’elettrodo sono state disabilitate, è stato riscontrato che il sistema stava prestando la massima attenzione a determinate regioni chiave del cervello associate all’elaborazione e alla produzione del parlato. Ad esempio, una buona parte delle prestazioni del sistema si basava su regioni del cervello che prestano attenzione al suono della propria voce quando parlano.
Mentre i risultati iniziali sembrano promettenti, il team di ricerca non è sicuro di quanto il modello si ridimensionerà a vocabolari più grandi. È importante che il principio possa essere generalizzato a vocabolari più grandi, poiché chi parla inglese medio ha un vocabolario attivo di circa 20.000 parole. L’attuale metodo di decodifica opera interpretando la struttura statica di una frase e usando quella struttura per fare ipotesi istruite sulle parole che corrispondono a un particolare modello di attività neurale. Man mano che il vocabolario cresce, l’accuratezza complessiva potrebbe essere ridotta poiché un numero maggiore di schemi neurali potrebbe apparire simile.
Gli autori dell’articolo spiegano che mentre sperano che il decodificatore alla fine imparerà a discernere schemi linguistici regolari e affidabili, non sono sicuri di quanti dati siano necessari per addestrare un modello in grado di generalizzare alla lingua inglese di tutti i giorni. Un potenziale modo di affrontare questo problema è integrare la formazione con i dati raccolti da altre interfacce cervello-computer utilizzando diversi algoritmi e impianti.
La ricerca condotta dai ricercatori dell’Università della California è solo uno sviluppo recente in una crescente ondata di ricerca e sviluppo per quanto riguarda le interfacce neurali e i computer. La Royal Society ha pubblicato un rapporto l’anno scorso secondo cui le interfacce neurali che collegano le persone ai computer alla fine permetteranno alle persone di leggersi a vicenda. Il rapporto fa riferimento alla startup Neuralink creata da Elon Musk e alle tecnologie sviluppate da Facebook come prova dei futuri progressi nell’informatica orientata all’uomo. La Royal Society osserva che le interfacce uomo-computer saranno una potente opzione nel trattamento di malattie neurodegenerative come l’Alzheimer nei prossimi due decenni.