Nelle reti neurali liquide, i parametri cambiano nel tempo in base ai risultati di un insieme nidificato di equazioni differenziali, il che significa che comprende nuove attività da solo e quindi non richiede grandi quantità di addestramento

Il cervello umano è composto da circa 86 miliardi di neuroni, ma replicare questa complessità attraverso reti neurali come RNN, CNN o Transformers è un compito arduo, poiché non è possibile aumentare le dimensioni della rete fino a quel livello. Inoltre, sorge il problema di raccogliere grandi quantità di dati di addestramento etichettati.

I ricercatori del Computer Science and AI Laboratory (CSAIL) del MIT hanno sviluppato una nuova tecnica per affrontare queste sfide chiamata “reti neurali liquide” (LNN). Si tratta di RNN continue nel tempo che elaborano i dati in sequenza, mantengono la memoria degli input precedenti e adattano il proprio comportamento in base ai nuovi input.

Recentemente, Daniela Rus, direttrice di CSAIL, ha dimostrato l’utilizzo di queste LNN nel controllo di un veicolo autonomo. I ricercatori sono riusciti a costruire un veicolo autonomo funzionante all’interno di una città utilizzando solo 100.000 neuroni artificiali. Tuttavia, si sono verificati problemi di rumore nella mappa di attenzione delle telecamere, che non erano necessari per il funzionamento del veicolo.

Sfruttando solamente 19 neuroni artificiali attraverso le LNN, la mappa di attenzione è diventata più chiara e focalizzata sul percorso da seguire. Questo è stato ottenuto convertendo tali neuroni in alberi decisionali, permettendo alla macchina di decidere autonomamente quale percorso prendere, in una sorta di rete neurale temporale.

Sebbene il cervello umano abbia miliardi di neuroni, le LNN possono ottenere funzionalità simili con un numero significativamente inferiore di neuroni artificiali. Questa compattezza offre vantaggi in termini di efficienza computazionale e scalabilità.

I ricercatori delle LNN evidenziano il grande potenziale di applicazione delle reti neurali liquide nella robotica, in particolare per migliorare l’affidabilità dei sistemi di navigazione autonomi. Ciò potrebbe avere un impatto positivo nelle operazioni di ricerca e salvataggio, nel monitoraggio della fauna selvatica e nei servizi di consegna, tra le altre applicazioni.

Con l’aumento dell’affollamento urbano, il concetto di mobilità intelligente diventa cruciale. Secondo Ramin Hasani, uno dei pionieri delle LNN, queste reti offrono un vantaggio significativo grazie alle loro dimensioni compatte, riducendo anche i costi di addestramento dei modelli di grandi dimensioni.

Hasani si è ispirato al sistema neurale di un verme lungo 1 mm chiamato nematode C. elegans, che è composto da soli 302 neuroni. Nonostante il numero limitato di neuroni, questi vermi sono in grado di svolgere compiti con dinamiche sorprendentemente complesse.

Un aspetto distintivo delle LNN è la loro capacità di continuare ad apprendere anche dopo la fase iniziale di addestramento. Utilizzando algoritmi “liquidi”, queste reti si adattano dinamicamente alle nuove informazioni, simulando l’interazione dei neuroni e delle sinapsi nel cervello degli organismi viventi.

Ad esempio, in un esperimento condotto su un drone, l’utilizzo delle LNN ha consentito al drone di tracciare un oggetto meglio rispetto ad altre reti neurali profonde. Grazie alla minore complessità, il drone è rimasto concentrato sul compito senza dipendere dal contesto circostante.

Un possibile limite delle LNN nei veicoli autonomi è che, poiché si concentrano solo sul percorso da seguire, potrebbe essere difficile evitare collisioni con oggetti sulla strada. Al momento, le ricerche si stanno concentrando su strade vuote senza ostacoli. Questa area è ancora in fase di esplorazione e miglioramento.

Le LNN potrebbero aprire nuove prospettive di ricerca nel campo dell’intelligenza artificiale. A differenza delle architetture di reti neurali più comuni come CNN, RNN o modelli di trasformatori, le LNN hanno ricevuto una minore attenzione nella letteratura riguardante implementazione, applicazione e vantaggi.

Nonostante le sfide, i ricercatori stanno lavorando per ottimizzare le LNN, cercando di ridurre il numero di neuroni necessari per compiti specifici. L’integrazione delle LNN nei modelli basati su trasformatori potrebbe consentire ai modelli di aggiornare continuamente i propri parametri e adattarsi ai contesti linguistici in evoluzione, migliorando le prestazioni e rispondendo alle esigenze degli utenti in modo più efficace. Tuttavia, è improbabile aspettarsi un comportamento intelligente completo come negli attuali modelli basati su trasformatori, poiché le LNN avrebbero una minore quantità di informazioni. Un’ulteriore esplorazione delle reti neurali liquide potrebbe sicuramente aprire nuove strade di ricerca.

Di Fantasy