Perché l’industria 5.0 ha bisogno dell’intelligenza artificiale generale
Diamo per scontata l’automazione nel nostro mondo moderno, beneficiando ogni giorno di catene di approvvigionamento che si estendono in tutto il mondo, consegnando una vasta selezione di prodotti ai nostri scaffali. Ma dietro le quinte, la produzione e il movimento delle merci generano molte sfide di ottimizzazione, come l’imballaggio, la programmazione, il routing e l’automazione della catena di montaggio. Queste sfide di ottimizzazione sono dinamiche e cambiano costantemente in tandem con il mondo reale. Ad esempio, le rotte di rifornimento previste potrebbero improvvisamente essere compromesse a causa di circostanze impreviste – ad esempio, il Canale di Suez potrebbe essere bloccato; le rotte aeree possono cambiare a causa di eruzioni vulcaniche; interi paesi potrebbero essere inaccessibili a causa di conflitti. Anche i cambiamenti nella legislazione, i crolli valutari e le scarse risorse sono esempi di variabili dal lato dell’offerta in costante mutamento.
Per fornire un altro esempio, a volte un nuovo componente deve essere incorporato in una macchina o in un flusso di lavoro (gli utenti potrebbero desiderare materiali o colori diversi, ad esempio). Attualmente, è necessario il lavoro umano esperto per apportare modifiche al sistema o, nel caso dell’apprendimento automatico, per riqualificare e ridistribuire ulteriormente la soluzione. In modo simile, i “gemelli digitali” di Industria 4.0 dipendono ancora fortemente dall’idea che la descrizione del problema e la distribuzione degli input possono essere specificate una volta per tutte al momento della progettazione iniziale del sistema.
La recente pandemia mette in evidenza la fragilità della pianificazione della filiera “just-in-time”. Diventa più evidente che, in un mondo sempre più complesso e incerto, l’industria non può più permettersi tale rigidità. Al momento, la produzione deve fare una scelta fissa tra “Low-Mix High-Volume” (LMHV) e “High-Mix Low-Volume” (HMLV). L’industria 5.0 anticipa la prospettiva di “High-Mix High-Volume” (HMHV), in cui il flusso di lavoro può essere riconfigurato a basso costo per soddisfare i requisiti di fluidi. Per raggiungere questo obiettivo, è necessario “automatizzare l’automazione”, al fine di eliminare la necessità di intervento umano e/o tempi di fermo del sistema quando il problema o l’ambiente cambia. Ciò richiede sistemi che “lavorano a comando”, reagendo a tali cambiamenti, pur avendo una ragionevole prospettiva di completare i compiti assegnati entro i limiti di tempo del mondo reale.
“Smetti immediatamente di assemblare X: ecco una specifica di Y, e qui ci sono la maggior parte dei tuoi vecchi e alcuni nuovi effettori. Ora inizia ad assemblare Y, evitando questo e quel tipo di difetti e sprechi.
Nonostante i recenti discorsi diffusi sull’arrivo imminente di “Artificial General Intelligence” (AGI) tramite i cosiddetti Large Language Models come GPT-3, nessuno degli approcci proposti è veramente in grado di “lavorare a comando”. Cioè, non possono essere incaricati di qualcosa di completamente al di fuori del loro set di formazione senza i tempi di inattività di riqualificazione, verifica e ridistribuzione offline.
È sicuramente chiaro che qualsiasi nozione di intelligenza del mondo reale è indissolubilmente associata alla reattività al cambiamento. Un sistema che rimane immutato, non importa a quanti imprevisti è esposto, non è né autonomo né intelligente. Questo non vuole sminuire gli indubbi punti di forza di tali approcci di deep learning (DL), che hanno riscosso un grande successo come mezzo per sintetizzare programmi per problemi difficili da specificare esplicitamente.
Quindi, che tipo di funzionalità del sistema potrebbe consentire all’IA di andare oltre questo paradigma di treno, congelamento e distribuzione, verso uno capace di un apprendimento adattivo ininterrotto? Considerare la necessità di sostituire un componente difettoso in un flusso di lavoro di produzione con uno di un fornitore diverso, che potrebbe godere di tolleranze diverse. Con la modellazione della scatola nera end-to-end dell’IA contemporanea, il processo di gemellaggio digitale deve essere fatto di nuovo. Per affrontare i limiti degli approcci contemporanei, è necessario un cambiamento radicale: un modello in grado di ragionare direttamente sulle conseguenze di un cambiamento di componente e, in effetti, su scenari controfattuali più generali “what if”. La scomposizione di un flusso di lavoro in componenti con proprietà note e la loro ricombinazione secondo necessità richiede ciò che è noto come “composizionalità”.
La composizionalità è finora sfuggita all’IA contemporanea, dove viene spesso confusa con la nozione più debole di modularità. La modularità riguarda la capacità di “incollare” i componenti insieme, ma ciò non riesce a catturare l’essenza della composizionalità, che è la capacità di ragionare sul comportamento del flusso di lavoro risultante al fine di determinare e garantire la conservazione di alcune proprietà desiderate. Questa capacità è fondamentale per motivi di verifica e sicurezza: ad esempio, la capacità del sistema di ragionare che “l’adozione di un motore di un produttore alternativo aumenterà la potenza complessiva dell’impianto mentre tutti gli altri componenti rimarranno entro i margini di temperatura”.
Sebbene gli approcci contemporanei delle reti neurali eccellono nell’apprendimento delle regole dai dati, mancano di ragionamento compositivo. In alternativa alla speranza che il ragionamento compositivo emerga dall’interno delle architetture di reti neurali, è possibile utilizzare direttamente le costruzioni della teoria delle categorie, lo studio matematico della composizionalità. In particolare, la sua cibernetica categoriale di sottocampo riguarda i controllori bidirezionali come elementi rappresentativi fondamentali. La bidirezionalità è la capacità di eseguire l’inferenza sia in avanti che inversa: fare previsioni dalle cause agli effetti e viceversa. L’inferenza compositiva è particolarmente importante perché consente l’incorporazione del feedback dall’ambiente a qualsiasi scala di rappresentazione strutturale: ciò facilita un rapido apprendimento da un piccolo numero di esempi.
Dato un comportamento del sistema desiderato, il compito di apprendimento è quindi costruire una struttura di controllo aggregata che lo soddisfi. Le strutture apprese inizialmente fungono da scheletro per l’apprendimento successivo.
Man mano che la conoscenza del sistema aumenta, questo scheletro può essere decorato con proprietà compositive apprese, in modo simile a come si può determinare che una molecola di H2O ha proprietà diverse da quelle dei suoi atomi costituenti. Inoltre, proprio come “lanciare una palla” e “fare oscillare una racchetta da tennis” possono essere visti come azioni muscolo-scheletriche correlate per un essere umano, così compiti correlati possono condividere una struttura del controller scheletrico che è abbellita in modo specifico per attività tramite feedback dal ambiente. Questo disaccoppiamento della struttura causale dai compiti specifici può facilitare l’apprendimento di nuovi compiti senza la catastrofica dimenticanza che affligge gli approcci contemporanei. Quindi, un approccio ibrido numerico-simbolico della forma sopra descritta può combinare i punti di forza di entrambi gli approcci neurali e simbolici, avendo sia una nozione esplicita di struttura che la capacità di apprendere in modo adattivo come sono composte le proprietà. Il ragionamento sulle proprietà compositive è fondato su base continuativa dal lavoro che il sistema è attualmente incaricato di eseguire.
In conclusione, è chiaro che è necessario un nuovo approccio per creare sistemi veramente autonomi: sistemi in grado di accogliere cambiamenti significativi e/o operare in ambienti sconosciuti. Ciò richiede un apprendimento adattivo ininterrotto e una generalizzazione da ciò che è già noto. Nonostante il loro nome, gli approcci di deep learning hanno solo una rappresentazione superficiale del mondo che non può essere manipolata ad alto livello dal processo di apprendimento. Al contrario, proponiamo che i sistemi AGI che sorgeranno nella prossima generazione incorporeranno il deep learning all’interno di un’architettura più ampia, dotata della capacità di ragionare direttamente su ciò che sa.
La capacità di un sistema di ragionare simbolicamente sulla propria rappresentazione conferisce vantaggi significativi per l’industria: con una rappresentazione esplicitamente compositiva, il sistema può essere verificato, sia dall’uomo che internamente dal sistema stesso, per soddisfare requisiti vitali di sicurezza e correttezza. Sebbene ci sia stata molta preoccupazione accademica sul cosiddetto rischio x dell’AGI, l’obiettivo appropriato è piuttosto il problema ingegneristico concreto di riassegnare un sistema di controllo mantenendo questi requisiti vitali, un processo che chiamiamo allineamento interattivo. È solo attraverso l’adozione di questo tipo di sistemi di controllo, che sono affidabili ed efficienti discenti continui, che saremo in grado di realizzare la prossima generazione di autonomia prevista dall’Industria 5.0.
Da Unite.ai Di: Bas Steunebrink, co-fondatore e direttore dell’intelligenza artificiale generale, Eric Nivel, ingegnere capo AGI e Jerry Swan, ricercatore presso NNAISENSE.