L’intelligenza artificiale neurosimbolica merita un colpo per l’AGI Moonshot
Negli ultimi due anni, gli esperti hanno suggerito una fusione dei due per costruire una nuova classe di IA in grado di compensare le debolezze dell’altro, chiamata IA neurosimbolica.
La ricerca AI/ML è in continua evoluzione e imprevedibile: spesso ci sono concetti “antiquati” che vengono capovolti e fatti rivivere in una forma completamente diversa dal modo in cui sono apparsi per la prima volta. Si tratta solo di riconoscerne il merito e fonderli ingenuamente. Anche il deep learning, il ramo del ML che va di moda ora, può essere fatto risalire al 1943. Per quanto imprevisto possa sembrare, le aree all’interno della disciplina maturano costantemente, a volte subiscono interruzioni significative nel loro sviluppo e poi possono riprendere in seguito.
IA simbolica e apprendimento profondo: un matrimonio felice
Allo stesso modo, una sezione di scienziati aveva da tempo anticipato il potenziale dell’adozione di sistemi di intelligenza artificiale simbolica in modo che le macchine potessero raggiungere livelli di comprensione umani. Divenuta popolare tra gli anni ’50 e ’80, l’IA simbolica è stato il primo tentativo di costruire l’IA. L’intelligenza artificiale simbolica ha giocato sulla capacità del cervello umano di capire il mondo in termini di interconnessioni e rappresentazioni simboliche. C’è un insieme di regole per definire i concetti che catturano la conoscenza quotidiana.
I modelli simbolici hanno la capacità di cogliere la conoscenza compositiva e causale che può aprire la strada a una generalizzazione flessibile dei modelli di intelligenza artificiale. D’altra parte, le reti neurali nell’apprendimento profondo sono in grado di attingere direttamente dai dati grezzi ma mancano quando si tratta di avere una struttura causale e compositiva, il che significa che devono essere riqualificate più e più volte per apprendere nuovi compiti.
Negli ultimi due anni, gli esperti hanno suggerito una fusione dei due per costruire una nuova classe di AI in grado di compensare le debolezze dell’altro, chiamata AI neurosimbolica . Questo nuovo metodo di intelligenza artificiale avrà reti neurali in grado di estrarre strutture statistiche da file di dati grezzi che forniscono un contesto su immagini e suoni – la parte del deep learning – insieme a rappresentazioni simboliche di problemi e logica, il lato simbolico.
Ci sono alcuni notevoli vantaggi nell’IA neurosimbolica: non richiede dati di addestramento, un ostacolo con cui l’apprendimento profondo sta lottando e tiene traccia anche dei passaggi necessari per costruire inferenze per trarre conclusioni.
Lacune nel deep learning
Dallo scorso anno, il lavoro su come l’IA neurosimbolica può far avanzare la generalizzazione ha preso piede. All’ICLR, Brenden Lake, CDS Assistant Professor of Data Science e Professor of Psychology presso il NYU Department of Psychology, Reuben Feinman, PhD student presso la NYU e Google PhD Fellow ha presentato un documento intitolato “Learning Task-General Representations with Generative Neuro- Modellazione simbolica’.
Il gruppo si è riunito per creare un modello neurosimbolico generativo, o modello GNS, che ha appreso le rappresentazioni concettuali da un’immagine durante l’addestramento utilizzando l’inferenza probabilistica. Il modello è stato quindi in grado di generalizzare questa formazione ad altri quattro compiti unici.
La generalizzazione è sempre stata un tallone d’Achille per il deep learning nonostante la predominanza del ramo. Esperimenti ripetuti mostrano che, anche con gli alti tassi di previsione delle RNA o delle reti neurali artificiali, le basi per fare inferenze potrebbero non essere le più ragionevoli.
Un documento del 2015 di ricercatori tra cui il fondatore di GAN Ian Goodfellow intitolato “Explaining and Harnessing Adversarial Examples” ha dimostrato che anche le reti di deep learning all’avanguardia spesso non sono in grado di imparare a riconoscere le immagini in un modo abbastanza convincente da essere generalizzato a compiti diversi.
Anche le macchine che sono abili nel giocare, che utilizzano l’apprendimento per rinforzo profondo, non sono note per seguire principi generalmente applicabili che possono quindi aiutarle a giocare a molti altri giochi. Nonostante tutte le capacità sovrumane di questi modelli, ad esempio AlphaGo di DeepMind, apportare le più piccole modifiche all’ambiente farà tornare il modello a uno stato non addestrato. In un articolo di Marta Garnelo e Murray Shanahan pubblicato nel 2019 intitolato “Conciliare l’apprendimento profondo con l’intelligenza artificiale simbolica: rappresentare oggetti e relazioni”, la ricerca ha discusso di come il matrimonio tra apprendimento profondo e intelligenza artificiale simbolica potrebbe aiutare a creare un paradigma connessionista.
Lavoro recente in IA neurosimbolica
L’approccio si è fatto strada anche in modelli molto recenti come CICERO, un agente annunciato da Meta AI nel novembre dello scorso anno. CICERO è stata la prima IA a raggiungere prestazioni a livello umano in Diplomacy, un gioco da tavolo basato sulla strategia.
Gary Marcus, professore della NYU e critico del deep learning, ha parlato di ciò che questo ha significato per la strada da percorrere nell’IA. Ha ammesso che, sebbene non fosse chiaro quanto Cicerone fosse generalizzabile, “Alcuni aspetti di Cicerone utilizzano un approccio neurosimbolico all’intelligenza artificiale, come l’associazione di messaggi nel linguaggio con la rappresentazione simbolica delle azioni, la comprensione incorporata (innata) di struttura del dialogo, la natura della menzogna come fenomeno che modifica il significato delle espressioni, e così via.
La ragione alla base della diversione nel ramo neurosimbolico potrebbe anche essere una conseguenza indiretta dell’attuale iperfocalizzazione attorno alle due direzioni principali della ricerca: scalare già enormi LLM o costruire strumenti di intelligenza artificiale generativa. Nonostante tutto il grande lavoro svolto in queste aree, il sogno dell’AGI continua a sembrare lontano.
In un documento pubblicato nel dicembre dello scorso anno intitolato “A Semantic Framework for Neural-Symbolic Computing”, gli autori Simon Odense e Artur d’Avila Garcez fanno riferimento a come l’integrazione di una struttura semantica possa aiutare ulteriormente l’IA neurosimbolica. Il documento offre prove dell’applicazione di tale struttura alla codifica neurale che può aiutare ad analizzare i sistemi neurosimbolici. Tutto questo per dire solo che l’IA neurosimbolica vale più di un colpo per spianare la strada all’AGI.