Questo nuovo modello di intelligenza artificiale può dire da dove proviene il suono
La ricerca è stata finanziata dalla National Science Foundation e dal National Institute on Deafness and Other Communication Disorders.
 
I neuroscienziati del MIT hanno sviluppato un modello computerizzato in grado di localizzare i suoni. Il modello racchiude un mucchio di reti neurali convoluzionali ed esegue il compito così come fanno gli esseri umani.

Il cervello umano è sintonizzato per riconoscere particolari suoni e determinare la direzione della loro origine. Il cervello stima la posizione del suono confrontando le differenze nei suoni che raggiungono l’orecchio destro e sinistro. “Ora abbiamo un modello in grado di localizzare effettivamente i suoni nel mondo reale”, ha affermato Josh McDermott, professore associato di cervello e scienze cognitive e membro del McGovern Institute for Brain Research del MIT. “E quando abbiamo trattato il modello come un partecipante sperimentale umano e abbiamo simulato questa vasta serie di esperimenti su cui le persone avevano testato gli esseri umani in passato, quello che abbiamo scoperto più e più volte è che il modello riassume i risultati che vedi negli esseri umani”.

McDermott è l’autore senior dell’articolo, apparso su Nature Human Behaviour. L’autore principale del documento è lo studente laureato del MIT Andrew Francl. “Lo studio ha anche scoperto che la capacità degli esseri umani di percepire la posizione è adattata alle sfide specifiche dell’ambiente”, ha aggiunto McDermott.


Le reti neurali convoluzionali sono anche ampiamente utilizzate per modellare il sistema visivo umano .

Poiché le reti neurali convoluzionali possono essere progettate con architetture diverse, il team del MIT ha utilizzato per la prima volta un supercomputer per addestrare e testare circa 1.500 modelli diversi per aiutarli a trovare quelli che funzionerebbero meglio per la localizzazione. I ricercatori lo hanno ristretto a 10 modelli e li hanno ulteriormente formati e li hanno utilizzati per studi successivi.

Per addestrare i modelli, i ricercatori hanno creato un mondo virtuale in cui hanno controllato le dimensioni della stanza e le proprietà di riflessione delle pareti. Hanno utilizzato oltre 400 suoni di addestramento che includevano voci umane, versi di animali, suoni di macchine e suoni naturali. I ricercatori hanno anche assicurato che il modello iniziasse con le stesse informazioni fornite dalle orecchie umane, che includono dettagli come il suono che riflette e altera l’orecchio esterno che ha delle pieghe. I ricercatori hanno simulato questo effetto eseguendo ogni suono attraverso una funzione matematica specializzata.

Per testare questo, i ricercatori hanno posizionato un manichino con microfoni nelle orecchie in una stanza reale e riprodotto suoni da diverse direzioni e quindi inserito quelle registrazioni nei modelli. I modelli si sono comportati in modo molto simile agli umani quando è stato chiesto di localizzare questi suoni. “Sebbene il modello sia stato addestrato in un mondo virtuale, quando lo abbiamo valutato, poteva localizzare i suoni nel mondo reale”, ha detto Francl.

I ricercatori stanno applicando il modello ad altri aspetti dell’audizione, come la percezione del tono e il riconoscimento vocale per comprendere altri fenomeni cognitivi, come i limiti a ciò a cui una persona può prestare attenzione o ricordare. La ricerca è stata finanziata dalla National Science Foundation e dal National Institute on Deafness and Other Communication Disorders.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi