Normal Computing, una startup di intelligenza artificiale deep tech fondata da ex ingegneri di Google Brain e Alphabet X, ha presentato oggi il primo computer termodinamico al mondo. Questo team ha realizzato un esperimento pionieristico nell’intelligenza artificiale termodinamica, utilizzando un hardware prototipo per migliorare l’affidabilità e il controllo degli output di una rete neurale. Tale sviluppo potrebbe un giorno contribuire a eliminare le allucinazioni nei modelli di intelligenza artificiale e permettere agli agenti di intelligenza artificiale di ragionare sul mondo in modo controllato e sicuro.
Le attuali applicazioni di intelligenza artificiale, come quelle basate sull’intelligenza artificiale generativa e su grandi modelli linguistici, richiedono enormi risorse. I computer moderni potrebbero non essere adeguatamente potenti per sfruttare l’intera gamma di applicazioni possibili. Inoltre, l’energia necessaria per i computer avanzati di oggi rappresenta un problema crescente man mano che i modelli di intelligenza artificiale si espandono, con il consumo energetico che è già un problema significativo per le attuali unità di elaborazione grafica (GPU).
Anche le soluzioni di intelligenza artificiale generativa all’avanguardia possono presentare problemi di affidabilità, risultando inutilizzabili in applicazioni mission-critical. L’uso di metodi probabilistici nell’intelligenza artificiale per gestire adeguatamente l’incertezza potrebbe essere cruciale per consentire agli agenti di intelligenza artificiale di pianificare, ragionare e avere buon senso. I nuovi approcci, come l’intelligenza artificiale probabilistica, aggiungono ulteriore complessità e difficoltà di scalabilità, specialmente per le GPU, ma potrebbero essere molto più efficienti su un computer termodinamico, come suggerito nell’ultimo documento di ricerca di Normal.
Faris Sbahi, CEO e co-fondatore di Normal Computing, ha sottolineato che, nonostante il dibattito sull’intelligenza artificiale di quest’anno sia stato dominato da ChatGPT e dall’interesse dei consumatori, la vera sfida è ottenere un impatto significativo risolvendo problemi aziendali mission-critical. Ha evidenziato l’importanza del loro esperimento come passo fondamentale nella loro strategia complessiva per sviluppare agenti di intelligenza artificiale che possano ragionare in modo nativo e che siano affidabili e capaci di essere considerati partner affidabili in settori importanti come quelli dei semiconduttori e dei servizi finanziari.
La computazione quantistica ha promesso accelerazioni significative per l’apprendimento automatico, l’algebra lineare e l’intelligenza artificiale generativa, ma l’impatto pratico dei computer quantistici è ancora a diversi anni di distanza. Il paradigma termodinamico, invece, appare come un’alternativa più immediata, basata sulla fabbricazione standard di semiconduttori e operante a temperatura ambiente.
Patrick Coles, capo scienziato di Normal Computing ed ex responsabile del Quantum Computing presso il Los Alamos National Laboratory, ha osservato che la promessa della computazione quantistica non ha ancora soddisfatto le aspettative, con i computer quantistici ancora in gran parte in fase di sviluppo accademico e senza aver prodotto valore commerciale concreto. Ha evidenziato che l’elaborazione avanzata, e non solo il talento, potrebbe essere la risorsa limitante per rendere i benefici dell’intelligenza artificiale onnipresenti. L’obiettivo di Normal Computing è di innescare un cambiamento radicale nelle capacità e nell’efficienza dell’intelligenza artificiale attraverso il nuovo stack termodinamico.