Gli ingegneri costruiscono un chip di intelligenza artificiale simile a LEGO
Il nuovo design è impilabile e riconfigurabile, per essere sostituito e costruito su sensori e processori di reti neurali esistenti

Immagina un futuro più sostenibile, in cui cellulari, smartwatch e altri dispositivi indossabili non devono essere accantonati o scartati per un nuovo modello. Invece, potrebbero essere aggiornati con i sensori e i processori più recenti che si agganciano al chip interno di un dispositivo, come i mattoncini LEGO incorporati in una build esistente. Tale chipware riconfigurabile potrebbe mantenere aggiornati i dispositivi riducendo al contempo i nostri rifiuti elettronici. 

Ora gli ingegneri del MIT hanno fatto un passo verso quella visione modulare con un design simile a LEGO per un chip di intelligenza artificiale impilabile e riconfigurabile.

Il design comprende strati alternati di elementi di rilevamento ed elaborazione, insieme a diodi a emissione di luce (LED) che consentono agli strati del chip di comunicare otticamente. Altri progetti di chip modulari utilizzano un cablaggio convenzionale per trasmettere i segnali tra gli strati. Tali intricate connessioni sono difficili se non impossibili da tagliare e ricablare, rendendo tali progetti impilabili non riconfigurabili.

Il design del MIT utilizza la luce, anziché i cavi fisici, per trasmettere le informazioni attraverso il chip. Il chip può quindi essere riconfigurato, con strati che possono essere scambiati o sovrapposti, ad esempio per aggiungere nuovi sensori o processori aggiornati.

“Puoi aggiungere tutti i livelli di elaborazione e i sensori che desideri, ad esempio per la luce, la pressione e persino l’odore”, afferma Jihoon Kang, post-dottorato del MIT. “Lo chiamiamo un chip AI riconfigurabile simile a LEGO perché ha un’espandibilità illimitata a seconda della combinazione di livelli”.

I ricercatori sono ansiosi di applicare il progetto ai dispositivi di edge computing: sensori autosufficienti e altri dispositivi elettronici che funzionano indipendentemente da qualsiasi risorsa centrale o distribuita come supercomputer o cloud-based computing.

“Mentre entriamo nell’era dell’Internet delle cose basato sulle reti di sensori, la domanda di dispositivi di edge computing multifunzionali aumenterà notevolmente”, afferma Jeehwan Kim, professore associato di ingegneria meccanica al MIT. “La nostra architettura hardware proposta fornirà un’elevata versatilità dell’edge computing in futuro.”

I risultati del team sono pubblicati su Nature Electronics . Oltre a Kim e Kang, gli autori del MIT includono i co-primi autori Chanyeol Choi, Hyunseok Kim e Min-Kyu Song, e gli autori che hanno contribuito Hanwool Yeon, Celesta Chang, Jun Min Suh, Jiho Shin, Kuangye Lu, Bo-In Park, Yeongin Kim, Han Eol Lee, Doyoon Lee, Subeen Pang, Sang-Hoon Bae, Hun S. Kum e Peng Lin, insieme a collaboratori dell’Università di Harvard, Tsinghua University, Zhejiang University e altrove.

Illuminando la strada

Il design del team è attualmente configurato per svolgere attività di riconoscimento delle immagini di base. Lo fa attraverso una stratificazione di sensori di immagine, LED e processori costituiti da sinapsi artificiali: array di resistori di memoria, o “memristori”, che il team ha sviluppato in precedenza , che insieme funzionano come una rete neurale fisica, o “brain-on- un chip. Ogni array può essere addestrato per elaborare e classificare i segnali direttamente su un chip, senza la necessità di software esterno o connessione Internet.

Nel loro nuovo design del chip, i ricercatori hanno accoppiato sensori di immagine con array di sinapsi artificiali, ognuno dei quali si sono allenati a riconoscere determinate lettere – in questo caso, M, I e T. Mentre un approccio convenzionale sarebbe quello di trasmettere i segnali di un sensore a un processore tramite cavi fisici, il team ha invece fabbricato un sistema ottico tra ciascun sensore e l’array di sinapsi artificiali per consentire la comunicazione tra gli strati, senza richiedere una connessione fisica. 

“Altri chip sono fisicamente cablati attraverso il metallo, il che li rende difficili da ricablare e riprogettare, quindi è necessario creare un nuovo chip se si desidera aggiungere una nuova funzione”, afferma Hyunseok Kim, postdoc del MIT. “Abbiamo sostituito quella connessione fisica del cavo con un sistema di comunicazione ottica, che ci dà la libertà di impilare e aggiungere chip nel modo desiderato”.

Il sistema di comunicazione ottica del team è costituito da fotorilevatori e LED accoppiati, ciascuno decorato con minuscoli pixel. I fotorilevatori costituiscono un sensore di immagine per la ricezione dei dati e i LED per trasmettere i dati al livello successivo. Quando un segnale (ad esempio l’immagine di una lettera) raggiunge il sensore di immagine, il pattern luminoso dell’immagine codifica una determinata configurazione di pixel LED, che a sua volta stimola un altro livello di fotorilevatori, insieme a un array di sinapsi artificiale, che classifica il segnale in base sul modello e la forza della luce LED in entrata.

Accatastamento

Il team ha fabbricato un singolo chip, con un core di calcolo che misurava circa 4 millimetri quadrati, o circa le dimensioni di un coriandolo. Il chip è impilato con tre “blocchi” di riconoscimento dell’immagine, ciascuno comprendente un sensore di immagine, uno strato di comunicazione ottica e un array di sinapsi artificiali per classificare una delle tre lettere, M, I o T. Hanno quindi brillato un’immagine pixellata di lettere casuali su il chip e ha misurato la corrente elettrica che ciascuna matrice di rete neurale ha prodotto in risposta. (Maggiore è la corrente, maggiore è la possibilità che l’immagine sia effettivamente la lettera che il particolare array è addestrato a riconoscere.)

Il team ha scoperto che il chip classificava correttamente le immagini chiare di ogni lettera, ma era meno in grado di distinguere tra immagini sfocate, ad esempio tra I e T. Tuttavia, i ricercatori sono stati in grado di sostituire rapidamente lo strato di elaborazione del chip per un migliore ” denoising” e ha trovato il chip, quindi ha identificato accuratamente le immagini.

“Abbiamo mostrato impilabilità, sostituibilità e la capacità di inserire una nuova funzione nel chip”, osserva Min-Kyu Song, post-dottorato del MIT.

I ricercatori hanno in programma di aggiungere più capacità di rilevamento ed elaborazione al chip e prevedono che le applicazioni siano illimitate.

“Possiamo aggiungere strati alla fotocamera di un cellulare in modo che possa riconoscere immagini più complesse, o trasformarle in monitor sanitari che possono essere incorporati in skin elettroniche indossabili”, offre Choi, che insieme a Kim ha precedentemente sviluppato una skin “intelligente” per il monitoraggio di vitali segni.

Un’altra idea, aggiunge, è per i chip modulari, integrati nell’elettronica, che i consumatori possono scegliere di costruire con i più recenti “mattoni” di sensori e processori.

“Possiamo creare una piattaforma di chip generale e ogni livello potrebbe essere venduto separatamente come un videogioco”, afferma Jeehwan Kim. “Potremmo creare diversi tipi di reti neurali, come per il riconoscimento di immagini o voce, e lasciare che il cliente scelga ciò che desidera e aggiunga a un chip esistente come un LEGO”.

Questa ricerca è stata supportata, in parte, dal Ministero del Commercio, dell’Industria e dell’Energia (MOTIE) della Corea del Sud; il Korea Institute of Science and Technology (KIST); e il programma Samsung Global Research Outreac

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi