Il cervello umano è stato a lungo, e continua ad essere, un enigma: come si è sviluppato, come continua ad evolversi, le sue capacità sfruttate e non sfruttate.

Lo stesso vale per i modelli di intelligenza artificiale (AI) e machine learning (ML).

 

E proprio come il cervello umano ha creato modelli di intelligenza artificiale e ML che diventano di giorno in giorno sempre più sofisticati, questi sistemi vengono ora applicati per studiare il cervello umano stesso. In particolare, tali studi cercano di migliorare le capacità dei sistemi di intelligenza artificiale e modellarli più da vicino sulle funzioni cerebrali in modo che possano operare in modi sempre più autonomi.

I ricercatori di Meta AI hanno intrapreso una di queste iniziative. Il braccio di ricerca della società madre di Facebook ha annunciato oggi uno studio a lungo termine per comprendere meglio come il cervello umano elabora il linguaggio. I ricercatori stanno esaminando come il cervello e i modelli linguistici dell’IA rispondono alle stesse frasi pronunciate o scritte.
“Stiamo cercando di confrontare i sistemi di intelligenza artificiale con il cervello, letteralmente”, ha affermato Jean-Rémi King, ricercatore senior presso Meta AI.

Il linguaggio parlato, ha osservato, rende gli esseri umani del tutto unici e capire come funziona il cervello è ancora una sfida e un processo in corso. La domanda di fondo è: “Cosa rende gli esseri umani così tanto più potenti o tanto più efficienti di queste macchine? Vogliamo identificare non solo le somiglianze, ma anche individuare le differenze rimanenti”.

Immagini cerebrali e IA a livello umano
Meta AI sta lavorando con NeuroSpin (CEA), un centro di ricerca con sede a Parigi per l’innovazione nell’imaging cerebrale e l’Istituto nazionale francese per la ricerca in scienze digitali (INRIA). Il lavoro fa parte del più ampio focus di Meta AI sull’IA a livello umano che può apprendere con poca o nessuna supervisione umana.

Comprendendo meglio come il cervello umano elabora il linguaggio, i ricercatori ipotizzano di poter raccogliere informazioni che aiuteranno a guidare lo sviluppo dell’intelligenza artificiale in grado di apprendere ed elaborare il parlato con la stessa efficienza delle persone.

“Sta diventando sempre più facile sviluppare, addestrare e utilizzare algoritmi di apprendimento speciali per eseguire un’ampia varietà di compiti”, ha affermato King. “Ma questi sistemi di intelligenza artificiale rimangono lontani dall’efficienza del cervello umano. Ciò che è chiaro è che manca qualcosa a questi sistemi per essere in grado di comprendere e imparare la lingua in modo molto più efficiente, almeno con la stessa efficienza degli esseri umani . Questa è ovviamente la domanda da un milione di dollari.
Nell’apprendimento profondo, più livelli di reti neurali lavorano in tandem per apprendere. Questo approccio è stato applicato nel lavoro dei ricercatori di Meta AI per evidenziare quando e dove le rappresentazioni percettive di parole e frasi vengono generate nel cervello mentre un volontario legge o ascolta una storia.

Negli ultimi due anni, i ricercatori hanno applicato tecniche di apprendimento profondo a set di dati di neuroimaging pubblico selezionati da immagini di attività cerebrale in risonanza magnetica (MRI) e scansioni di tomografia computerizzata (TC) di volontari. Questi sono stati raccolti e condivisi da diverse istituzioni accademiche, tra cui la Princeton University e il Max Planck Institute for Psycholinguistics.

Il team ha modellato migliaia di queste scansioni cerebrali applicando anche uno scanner per magnetoencefalografia (MEG) per acquisire immagini ogni millisecondo. Lavorando con INRIA, hanno confrontato una varietà di modelli linguistici con le risposte cerebrali di 345 volontari che sono stati registrati con la risonanza magnetica funzionale (fMRI) mentre ascoltavano narrazioni complesse.

Le stesse narrazioni che sono state lette o presentate a soggetti umani sono state quindi presentate ai sistemi di intelligenza artificiale. “Possiamo confrontare questi due set di dati per vedere quando e dove corrispondono o non corrispondono”, ha affermato King.

Ciò che i ricercatori hanno trovato finora
I ricercatori hanno già tirato fuori preziose informazioni. In particolare, i modelli linguistici che assomigliano di più all’attività cerebrale sono quelli che predicono meglio la parola successiva dal contesto (come “in una notte buia e tempestosa…” o “c’era una volta…”), ha spiegato King. Tale previsione basata su input parzialmente osservabili è al centro dell’apprendimento auto-supervisionato (SSL) dell’IA.
Tuttavia, specifiche regioni del cervello anticipano parole e idee molto più avanti nel tempo, mentre al contrario, i modelli linguistici sono generalmente addestrati per prevedere la parola successiva. Sono limitati nella loro capacità di anticipare idee, trame e narrazioni complesse.

“(Gli esseri umani) predicono sistematicamente cosa accadrà dopo”, ha detto King. “Ma non è solo una previsione a livello di parole, è a un livello più astratto”.

In ulteriori contrasti, il cervello umano può apprendere con pochi milioni di frasi e può adattarsi e memorizzare continuamente informazioni tra i suoi trilioni di sinapsi . I modelli linguistici di intelligenza artificiale, nel frattempo, sono addestrati su miliardi di frasi e possono parametrizzare fino a 175 miliardi di sinapsi artificiali.

King ha sottolineato il fatto che i bambini sono esposti a migliaia di frasi e possono capire rapidamente il linguaggio. Ad esempio, solo da alcuni esempi, i bambini imparano che “arancione” può riferirsi sia a un frutto che a un colore. Ma i moderni sistemi di intelligenza artificiale hanno problemi con questo compito.

“È molto chiaro che il sistema di intelligenza artificiale di oggi, non importa quanto siano buoni o impressionanti, sono anche estremamente inefficienti”, ha affermato King. Mentre i modelli di intelligenza artificiale svolgono compiti sempre più complessi, “sta diventando molto chiaro che in molti modi non capiscono le cose in modo ampio”.

Per perfezionare ulteriormente il loro studio, i ricercatori Meta AI e NeuroSpin stanno ora creando un set di dati di neuroimaging originale. Questo, insieme al codice, ai modelli di deep learning e ai documenti di ricerca saranno open source per aiutare a ulteriori scoperte nei campi dell’IA e delle neuroscienze. “L’idea è di fornire una serie di strumenti che saranno utilizzati e sfruttati dai nostri colleghi nel mondo accademico e in altre aree”, ha affermato King.
Studiando in modo più approfondito la capacità di previsione a lungo raggio, i ricercatori possono aiutare a migliorare i moderni modelli linguistici di intelligenza artificiale, ha affermato. Il miglioramento degli algoritmi con previsioni a lungo raggio può aiutarli a diventare più correlati con il cervello.

King ha sottolineato che “Quello che è chiaro ora è che questi sistemi possono essere paragonati al cervello umano, cosa che non era il caso solo pochi anni fa”.

Ha aggiunto che il progresso scientifico richiede l’unione delle discipline delle neuroscienze e dell’IA. Con il tempo, si evolveranno in modo molto più stretto e collaborativo.

“Questo scambio tra neuroscienze e intelligenza artificiale non è solo uno scambio metaforico con idee astratte”, ha affermato King. “Sta diventando estremamente concreto. Stiamo cercando di capire quali sono le architetture, quali sono i principi di apprendimento nel cervello? E stiamo cercando di implementare queste architetture e questi principi nei nostri modelli”.

 

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi