Il nuovo chip aumenta l’efficienza di elaborazione dell’IA
L’edge computing basato sull’intelligenza artificiale è già pervasivo nelle nostre vite. Dispositivi come droni, dispositivi indossabili intelligenti e sensori IoT industriali sono dotati di chip abilitati per l’intelligenza artificiale in modo che l’elaborazione possa avvenire al “bordo” di Internet, dove hanno origine i dati. Ciò consente l’elaborazione in tempo reale e garantisce la riservatezza dei dati.
Tuttavia, le funzionalità dell’IA su questi piccoli dispositivi edge sono limitate dall’energia fornita da una batteria. Pertanto, il miglioramento dell’efficienza energetica è fondamentale. Nei chip AI di oggi, l’elaborazione e l’archiviazione dei dati avvengono in luoghi separati: un’unità di calcolo e un’unità di memoria. Il frequente spostamento dei dati tra queste unità consuma la maggior parte dell’energia durante l’elaborazione dell’IA, quindi ridurre lo spostamento dei dati è la chiave per affrontare il problema energetico.
Gli ingegneri della Stanford University hanno escogitato una potenziale soluzione: un nuovo chip resistivo di memoria ad accesso casuale (RRAM) che esegue l’elaborazione dell’IA all’interno della memoria stessa, eliminando così la separazione tra le unità di calcolo e di memoria. Il loro chip “compute-in-memory” (CIM), chiamato NeuRRAM, ha le dimensioni di un polpastrello e funziona di più con una carica della batteria limitata rispetto a quanto possono fare i chip attuali.
“Avere questi calcoli eseguiti sul chip invece di inviare informazioni da e verso il cloud potrebbe consentire un’IA più veloce, più sicura, più economica e più scalabile in futuro e consentire a più persone di accedere alla potenza dell’IA”, ha affermato H.-S Philip Wong , Willard R. e Inez Kerr Bell Professore alla Scuola di Ingegneria .
“Il problema del movimento dei dati è simile al trascorrere otto ore in viaggio per una giornata lavorativa di due ore”, ha aggiunto Weier Wan, un neolaureato a Stanford che guida questo progetto. “Con il nostro chip, stiamo mostrando una tecnologia per affrontare questa sfida”.
Hanno presentato NeuRRAM in un recente articolo sulla rivista Nature . Sebbene il calcolo in memoria sia in circolazione da decenni, questo chip è il primo a dimostrare effettivamente un’ampia gamma di applicazioni di intelligenza artificiale sull’hardware, piuttosto che attraverso la sola simulazione.
Mettere potenza di calcolo sul dispositivo
Per superare il collo di bottiglia del movimento dei dati, i ricercatori hanno implementato ciò che è noto come compute-in-memory (CIM), una nuova architettura di chip che esegue l’elaborazione dell’IA direttamente all’interno della memoria anziché in unità di calcolo separate. La tecnologia di memoria utilizzata da NeuRRAM è la memoria resistiva ad accesso casuale (RRAM). È un tipo di memoria non volatile – memoria che conserva i dati anche dopo lo spegnimento – che è emerso nei prodotti commerciali. La RRAM può archiviare modelli di intelligenza artificiale di grandi dimensioni in un ingombro ridotto e consumare pochissima energia, rendendoli perfetti per dispositivi edge di piccole dimensioni e a bassa potenza.
Anche se il concetto di chip CIM è ben consolidato e l’idea di implementare l’intelligenza artificiale in RRAM non è nuova, “questo è uno dei primi casi in cui integrare molta memoria direttamente sul chip della rete neurale e presentare tutti i risultati del benchmark attraverso misurazioni hardware”, ha affermato Wong, co-autore senior del documento Nature .
L’architettura di NeuRRAM consente al chip di eseguire calcoli analogici in memoria a bassa potenza e in un’area compatta. È stato progettato in collaborazione con il laboratorio di Gert Cauwenberghs dell’Università della California, San Diego, pioniere della progettazione di hardware neuromorfico a bassa potenza. L’architettura consente inoltre la riconfigurabilità nelle direzioni del flusso di dati, supporta varie strategie di mappatura del carico di lavoro dell’IA e può funzionare con diversi tipi di algoritmi di intelligenza artificiale, il tutto senza sacrificare la precisione di calcolo dell’IA.
Per mostrare l’accuratezza delle capacità di intelligenza artificiale di NeuRRAM, il team ha testato come funzionava su diversi compiti. Hanno scoperto che è accurato al 99% nel riconoscimento delle lettere dal set di dati MNIST, accurato all’85,7% sulla classificazione delle immagini dal set di dati CIFAR-10, accurato all’84,7% sul riconoscimento dei comandi vocali di Google e ha mostrato una riduzione del 70% nell’errore di ricostruzione dell’immagine su un bayesiano attività di recupero dell’immagine.
“Efficienza, versatilità e precisione sono tutti aspetti importanti per una più ampia adozione della tecnologia”, ha affermato Wan. “Ma realizzarli tutti in una volta non è semplice. La chiave è la co-ottimizzazione dell’intero stack dall’hardware al software”.
“Tale co-progettazione completa è resa possibile da un team internazionale di ricercatori con competenze diverse”, ha aggiunto Wong.
Calcoli all’avanguardia del futuro
In questo momento, NeuRRAM è un proof-of-concept fisico, ma necessita di ulteriore sviluppo prima che sia pronto per essere tradotto in dispositivi edge reali.
Ma questa combinazione di efficienza, precisione e capacità di svolgere compiti diversi mostra il potenziale del chip. “Forse oggi viene utilizzato per eseguire semplici attività di intelligenza artificiale come l’individuazione di parole chiave o il rilevamento di esseri umani, ma domani potrebbe consentire un’esperienza utente completamente diversa. Immagina l’analisi video in tempo reale combinata con il riconoscimento vocale all’interno di un minuscolo dispositivo”, ha affermato Wan. “Per realizzare questo, dobbiamo continuare a migliorare il design e ridimensionare la RRAM a nodi tecnologici più avanzati”.
“Questo lavoro apre diverse strade per la ricerca futura sull’ingegneria dei dispositivi RRAM, sui modelli di programmazione e sulla progettazione di reti neurali per il calcolo in memoria, per rendere questa tecnologia scalabile e utilizzabile dagli sviluppatori di software”, ha affermato Priyanka Raina , assistente professore di ingegneria elettrica e un coautore dell’articolo.
In caso di successo, i chip di calcolo in memoria RRAM come NeuRRAM hanno un potenziale quasi illimitato. Potrebbero essere incorporati nei campi coltivati per eseguire calcoli di intelligenza artificiale in tempo reale per adattare i sistemi di irrigazione alle condizioni attuali del suolo. Oppure potrebbero trasformare occhiali per realtà aumentata da goffe cuffie con funzionalità limitate a qualcosa di più simile allo schermo di Tony Stark nei film di Iron Man e Avengers (senza minacce intergalattiche o multiverso, si può sperare).
Se prodotti in serie, questi chip sarebbero abbastanza economici, sufficientemente adattabili e sufficientemente bassi da poter essere utilizzati per far avanzare tecnologie che stanno già migliorando le nostre vite, ha affermato Wong, come nei dispositivi medici che consentono il monitoraggio della salute domestica.
Possono essere utilizzati anche per risolvere le sfide sociali globali: i sensori abilitati all’intelligenza artificiale svolgerebbero un ruolo nel monitoraggio e nell’affrontare i cambiamenti climatici. “Avendo questo tipo di elettronica intelligente che può essere collocata quasi ovunque, puoi monitorare il mondo che cambia ed essere parte della soluzione”, ha affermato Wong. “Questi chip potrebbero essere utilizzati per risolvere tutti i tipi di problemi, dai cambiamenti climatici alla sicurezza alimentare”.
Ulteriori coautori di questo lavoro includono ricercatori dell’Università della California di San Diego (co-responsabile), dell’Università di Tsinghua, dell’Università di Notre Dame e dell’Università di Pittsburgh. Anche l’ex studente laureato di Stanford Sukru Burc Eryilmaz è un coautore. Wong è un membro della Stanford Bio-X e del Wu Tsai Neurosciences Institute e un affiliato del Precourt Institute for Energy . È anche direttore della facoltà della Stanford Nanofabrication Facility e co-direttore della facoltà fondatrice della Stanford SystemX Alliance , un programma di affiliazione industriale a Stanford incentrato sui sistemi di costruzione.
Questa ricerca è stata finanziata dalla National Science Foundation Expeditions in Computing , SRC JUMP ASCENT Center , Stanford SystemX Alliance , Stanford NMTRI , Beijing Innovation Center for Future Chips, National Natural Science Foundation of China e Office of Naval Research .