Efficienza energetica dell’hardware neuromorfico praticamente provato
La tecnologia neuromorfica è più efficiente dal punto di vista energetico per le grandi reti di apprendimento profondo rispetto ad altri sistemi di intelligenza artificiale comparabili. Lo dimostrano gli esperimenti condotti in collaborazione tra ricercatori che lavorano nello Human Brain Project (HBP) presso TU Graz e Intel, utilizzando un nuovo chip Intel che utilizza neuroni simili a quelli del cervello.
Il team di ricerca: Wolfgang Maass, Mike Davies, Philipp Plank (credito immagine: Lunghammer – TU Graz, Tim Herman/Intel Corporation, diemosbachers.at)
Macchine intelligenti e computer intelligenti in grado di riconoscere e dedurre autonomamente oggetti e relazioni tra oggetti diversi sono oggetto di ricerca mondiale sull’intelligenza artificiale (AI). Il consumo di energia è un ostacolo importante sulla strada per una più ampia applicazione di tali metodi di intelligenza artificiale. Si spera che la tecnologia neuromorfica fornisca una spinta nella giusta direzione. La tecnologia neuromorfica è modellata sul cervello umano, che è il campione mondiale di efficienza energetica. Per elaborare le informazioni, i suoi cento miliardi di neuroni consumano solo circa 20 watt, non molta più energia di una lampadina media a risparmio energetico.
Un team di ricerca del partner HBP TU Graz e Intel ha ora dimostrato sperimentalmente per la prima volta che una grande rete neuronale su hardware neuromorfico consuma molta meno energia rispetto a hardware non neuromorfo. I risultati sono stati pubblicati su Nature Machine Intelligence. Il gruppo si è concentrato sugli algoritmi che funzionano con i processi temporali. Ad esempio, il sistema doveva rispondere a domande su una storia raccontata in precedenza e cogliere le relazioni tra oggetti o persone dal contesto. L’hardware testato consisteva in 32 chip Loihi (nota: Loihi è il nome del chip di ricerca neuronale di Intel). “Il nostro sistema è da due a tre volte più economico rispetto ad altri modelli di intelligenza artificiale”, afferma Philipp Plank, uno studente di dottorato presso l’Istituto di informatica teorica di Graz e un dipendente di Intel.
Plank offre la prospettiva di ulteriori guadagni in termini di efficienza, poiché l’introduzione della nuova generazione Loihi migliorerà la comunicazione da chip a chip ad alta intensità energetica. Questo perché la comunicazione neuronale all’interno di un solo chip era ancora più eccezionale. Le misurazioni hanno mostrato che il consumo di energia qui era addirittura 1000 volte più efficiente, poiché nessun potenziale d’azione (i cosiddetti picchi) doveva essere inviato avanti e indietro tra i chip.
Imitando la memoria umana a breve termine
Nel loro concept, il gruppo ha riprodotto un presunto metodo del cervello umano, come spiega Wolfgang Maass, supervisore del dottorato di Philipp Plank e professore emerito all’Institute of Theoretical Computer Science: “Studi sperimentali hanno dimostrato che il cervello umano può immagazzinare informazioni per un breve periodo di tempo anche senza attività neuronale, cioè nelle cosiddette ‘variabili interne’ dei neuroni. Le simulazioni suggeriscono che un meccanismo di affaticamento di un sottoinsieme di neuroni è essenziale per questa memoria a breve termine». Manca una prova diretta perché queste variabili interne non possono ancora essere misurate, ma significa che la rete deve solo testare quali neuroni sono attualmente affaticati per ricostruire quali informazioni ha elaborato in precedenza. In altre parole, le informazioni precedenti sono memorizzate nella non attività dei neuroni,
Simbiosi di rete ricorrente e feed-forward
I ricercatori collegano due tipi di reti di apprendimento profondo per questo scopo. Le reti neuronali di feedback sono responsabili della “memoria a breve termine”. Molti di questi cosiddetti moduli ricorrenti filtrano possibili informazioni rilevanti dal segnale di ingresso e le memorizzano. Una rete feed-forward determina quindi quali delle relazioni trovate sono veramente importanti per risolvere il compito in questione. Le relazioni prive di significato vengono escluse, i neuroni si attivano solo in quei moduli in cui sono state trovate informazioni rilevanti. Questo processo alla fine porta al risparmio energetico.
Un passo importante verso l’IA ad alta efficienza energetica
Steve Furber, leader della divisione di informatica neuromorfica HBP e professore di ingegneria informatica all’Università di Manchester, commenta il lavoro del team di Graz:
“Questo progresso porta la promessa di un’IA basata su eventi ad alta efficienza energetica su piattaforme neuromorfiche un importante passo avanti verso la realizzazione. Il nuovo meccanismo si adatta bene ai sistemi di calcolo neuromorfico come Intel Loihi e SpiNNaker che sono in grado di supportare modelli di neuroni multi-compartimento”, ha affermato Furber, che è il creatore del sistema di calcolo neuromorfico SpiNNaker, disponibile su EBRAINS Research dell’HBP Infrastruttura.
TU Graz nel progetto cervello umano
Nell’ambito del progetto Human Brain, il gruppo di Wolfgang Maass contribuisce in modo determinante all’area di ricerca “Reti adattive per architetture cognitive: dall’apprendimento avanzato alla neurorobotica e alle applicazioni neuromorfiche”. Qui, gli scienziati lavorano su algoritmi ispirati al cervello per risolvere compiti di intelligenza artificiale e schemi di deep learning per applicazioni basate su spike. Il gruppo si ispira al modo in cui i neuroni comunicano nel cervello per studiare nuovi metodi per reti di neuroni artificiali ad alta efficienza energetica.