Nel labirinto delle tecnologie emergenti, una delle frontiere più affascinanti è quella in cui la fisica dei materiali incontra l’architettura del cervello: non solo imitando sinapsi e connessioni, ma tentando di emulare la capacità del cervello stesso di adattarsi, correggersi e modulare la propria sensibilità. È in questo orizzonte che si inserisce la recente scoperta del KAIST: un dispositivo a semiconduttore che simula la plasticità intrinseca neuronale, ossia quella flessibilità del singolo neurone di “diventare più o meno reattivo” in risposta alle esperienze, e non solo attraverso le connessioni sinaptiche.
Il progetto, guidato dal professor Kyung-Min Kim del Dipartimento di Scienza e Ingegneria dei Materiali del KAIST, ha messo a punto un dispositivo chiamato frequency switching (FS) neuristor — un “neurone artificiale” che può regolare dinamicamente la frequenza con cui invia segnali, come fanno i neuroni biologici quando si “abituano” a stimoli ripetuti o diventano più sensibili in seguito a stimoli ripetuti. In termini più tecnici, il team ha combinato un memristore volatile (che ritorna spontaneamente al suo stato iniziale) con un memristore non volatile (capace di memorizzare stati per lungo tempo), in modo da ottenere una modulazione autonoma della frequenza di attivazione del neurone artificiale.
Il principio è suggestivo: quando un neurone biologico è ripetutamente stimolato, la sua “eccitabilità” può abbassarsi (desensibilizzazione) o, al contrario, aumentare se stimolato in modo particolare (sensibilizzazione). Questo fenomeno — la plasticità intrinseca — non dipende dalle sinapsi (non è un cambiamento della forza delle connessioni), ma dall’adattamento interno del neurone. Il dispositivo del KAIST riproduce questa dinamica in un circuito hardware, modulando la frequenza dei segnali elettrici in funzione dei segnali che riceve, in modo programmabile e reversibile.
La chiave tecnica sta nella giustapposizione di due tipi di memristori:
- Il memristore volatile (di tipo Mott) reagisce rapidamente: quando la tensione supera una soglia, entra in conduzione, emulando un “picco elettrico”, ma poi torna allo stato iniziale.
- Il memristore non volatile (di tipo VCM, valence change memory) mette “radici”: registra uno stato di resistenza che persiste, influenzando la risposta successiva.
Collegandoli in serie, il dispositivo genera oscillazioni, e il memristore non volatile può modulare il carico resistivo, cambiando la frequenza dell’oscillazione in risposta alle condizioni di input. In questo modo, la stessa tensione può produrre frequenze diverse a seconda dello “stato interno” del dispositivo — un’analogia diretta con come un neurone regola la propria soglia di attivazione.
Gli autori hanno dimostrato, attraverso simulazioni basate su reti neurali sparse, che includere plasticità intrinseca in queste reti permette prestazioni simili a quelle di reti convenzionali, ma con un risparmio energetico significativo, stimato nel 27,7 %. In altre parole: più intelligenza incorporata nei neuroni, meno carico energetico e più efficienza.
Un aspetto sorprendente è che la rete dotata di questa plasticità intrinseca mostra resilienza anche se alcuni neuroni vengono “danneggiati”: grazie alla capacità degli altri neuroni di adattarsi, la rete può recuperare le sue performance. È quasi come se il sistema hardware possedesse una forma embrionale di autoriparazione.
Questa innovazione ha potenzialità che vanno ben oltre un singolo dispositivo. In un mondo in cui l’IA su hardware (neuromorphic computing) cerca di ridurre la distanza tra modello e dispositivo, un “neurone” che porta con sé memoria, adattabilità e autoriparazione è un mattoncino ambizioso.
Immagina sistemi di edge computing che possono adattarsi ai disturbi ambientali, che non perdono performance se alcuni circuiti guastano, che consumano meno energia in applicazioni reali: veicoli autonomi, dispositivi indossabili, robot intelligenti che operano per anni con risorse limitate.
Tuttavia, non è tutto facile:
- Stabilità e controllabilità: combinare memristori con comportamento volatile e non volatile richiede che i parametri elettrici siano calibrati con precisione. Qualsiasi rumore, variazione di temperatura o difetto può far “saltare” l’equilibrio.
- Scalabilità su larga scala: replicare questi dispositivi su grandi matrici integrate, su chip densi, con prestazioni uniformi, è incerto.
- Integrazione con reti reali: portare da simulazioni su reti sparse a modelli pratici con esigenze di latenza, robustezza e tolleranza agli errori è un salto.
- Materiali e affidabilità nel tempo: la stabilità dei memristori, la degradazione dei materiali e la variabilità del processo sono fattori che possono compromettere l’uso a lungo termine.
- Compatibilità con architetture esistenti: le architetture AI convenzionali (GPU, acceleratori digitali) non sono progettate per sfruttare plasticità intrinseca; servono nuovi paradigmi hardware-software.
Il lavoro del KAIST non è un’intuizione astratta, ma una dimostrazione concreta che certi aspetti del comportamento biologico (come la plasticità intrinseca) possono essere trasposti nel dominio dei semiconduttori. Il fatto che, con simulazioni, la rete abbia risparmiato energia e recuperato da danni è un segnale che la strada è praticabile — anche se lunga.
Il professor Kim sottolinea che questa tecnologia apre orizzonti per sistemi che richiedono stabilità a lungo termine: edge computing sensibili, veicoli autonomi, dispositivi che funzionano in ambienti difficili. L’idea che un sistema possa “ricordare il proprio stato, adattarsi e recuperare” è potente.
Lungo questa direttrice, il KAIST si inserisce in una comunità che già da anni esplora memristori, plasticità sinaptica, reti neurone-sinapsi integrate. Un lavoro precedente molto citato ha mostrato come sia possibile emulare plasticità sinaptica e intrinseca in un unico dispositivo memristivo, fondendo funzioni neurali e sinaptiche in un solo elemento hardware.