Ricercatori statunitensi hanno conseguito un notevole successo nello sfruttare l’intelligenza artificiale (AI) per ricostruire musica attraverso l’analisi dei segnali delle onde cerebrali emessi durante l’ascolto musicale. Questo progresso promette di essere rivoluzionario per i pazienti affetti da malattie neurologiche come l’ictus e la malattia di Lou Gehrig, offrendo la possibilità non solo di esprimere pensieri tramite il cervello, ma anche di comunicare attraverso elementi musicali come accento e intonazione.
Secondo quanto riportato dal The Guardian, i ricercatori dell’UC Berkeley hanno recentemente presentato questa tecnologia innovativa attraverso la rivista scientifica internazionale ‘Plos Biology’. La ricerca ha coinvolto pazienti affetti da epilessia, i quali, mentre ascoltavano musica, sono stati sottoposti all’analisi delle onde cerebrali.
Durante un intervento chirurgico per trattare l’epilessia, il gruppo di ricerca ha eseguito la celebre canzone “Another Brick in the Wall, Part 1” dei Pink Floyd in sala operatoria per circa tre minuti. Impiegando ben 92 elettrodi posizionati sulla superficie del cervello dei pazienti, sono state registrate le onde cerebrali durante l’ascolto della musica. L’analisi dei dati raccolti è stata condotta grazie all’intelligenza artificiale, che è riuscita a ricostruire le parole e i suoni della canzone.
Il risultato è stato un sorprendente replica della canzone originale, in cui non solo la melodia, ma anche parte del testo è stata fedelmente riprodotta. “È un po’ come parlare sott’acqua, ma è solo il nostro primo tentativo”, ha dichiarato Robert Knight, professore di neuroscienze presso l’UC Berkeley e leader dello studio.
L’analisi integrata delle onde cerebrali di 29 pazienti ha dimostrato che questa tecnica può essere applicata in modo da ricreare canzoni nella loro interezza. Parti del testo, come il celebre ritornello “Tutto sommato, è solo un altro mattone nel muro”, sono state riprodotte con una chiarezza sorprendente.
La ricerca ha anche evidenziato che conversazione quotidiana e musica attivano diverse aree cerebrali. Mentre l’emisfero destro del cervello è prevalentemente coinvolto nelle conversazioni, l’emisfero sinistro è più attivo durante l’ascolto musicale. Questa discrepanza è stata attribuita alle diverse regioni cerebrali coinvolte nella gestione della conversazione e della musica.
Il Prof. Knight ha sottolineato: “La musica è intrinsecamente emotiva e prosodica in quanto contiene non solo espressione linguistica, ma anche elementi come ritmo, accento e intonazione”.
Questa ricerca si basa sulla tecnologia interfaccia cervello-computer (BCI), che collega il pensiero umano ai computer rilevando le onde cerebrali. L’evoluzione della BCI potrebbe consentire il controllo di oggetti tramite onde cerebrali e movimenti di un braccio robotico solo attraverso pensieri.
Oltre a offrire nuove prospettive di comunicazione per pazienti con problemi neurologici, questa ricerca potrebbe gettare le basi per ulteriori sviluppi nella tecnologia BCI, connettendo sempre di più esseri umani e computer. Sulla base dei risultati ottenuti finora, il team di ricerca mira a continuare il percorso esplorativo, cercando di ricostruire la musica a partire dalle onde cerebrali generate quando si immagina di ascoltarla.
Il Dott. Ludovich Bellier, esperto in Neurologia presso l’UC Berkeley, ha commentato: “Siamo riusciti a distinguere le caratteristiche musicali dai segnali delle onde cerebrali”. Un passo avanti straordinario verso la comprensione e l’utilizzo potenziale delle capacità cerebrali umane.