Meta ha recentemente annunciato progressi significativi nell’utilizzo dell’intelligenza artificiale per decodificare i pensieri umani, mirando a sviluppare interfacce cervello-computer non invasive. Questa ricerca potrebbe rivoluzionare la comunicazione per le persone con gravi lesioni cerebrali, offrendo loro la possibilità di esprimersi attraverso segnali cerebrali.
In collaborazione con il Basque Center on Cognition, Brain, and Language (BCBL) di San Sebastián, Spagna, Meta ha condotto uno studio che ha coinvolto 35 volontari sani. Durante l’esperimento, i partecipanti digitavano frasi memorizzate mentre veniva registrata la loro attività cerebrale. L’obiettivo era sviluppare un modello in grado di decodificare il testo a partire da registrazioni cerebrali non invasive, come l’elettroencefalogramma (EEG) e la magnetoencefalografia (MEG).
Per affrontare questa sfida, è stato creato un nuovo modello di deep learning denominato Brain2Qwerty. Questo modello adotta un’architettura a tre stadi:
- Modulo Convoluzionale: Elabora i segnali cerebrali grezzi.
- Modulo Trasformatore: Interpreta le informazioni elaborate.
- Modello Linguistico Pre-Addestrato: Corregge l’output del trasformatore per migliorare l’accuratezza.
Questa combinazione ha permesso al modello di decodificare fino all’80% dei caratteri, ricostruendo intere frasi a partire dai segnali cerebrali.
Sebbene il modello non sia ancora pronto per l’uso quotidiano, rappresenta un passo significativo verso la creazione di dispositivi che consentano alle persone con lesioni cerebrali di comunicare senza l’uso di impianti invasivi. Jean-Rémi King, responsabile della tecnologia cerebrale e AI di Meta, ha dichiarato: “Crediamo che questo approccio offra una via promettente per ripristinare la comunicazione nei pazienti con lesioni cerebrali… senza richiedere loro di avere elettrodi impiantati all’interno”.