Il nuovo framework utilizza l’apprendimento per rinforzo per creare agenti di intelligenza artificiale in grado di seguire le istruzioni ed eseguire azioni in sicurezza in condizioni a tempo indeterminato
 
DeepMind ha recentemente rilasciato un framework che consentirà la creazione di agenti AI in grado di comprendere le istruzioni umane ed eseguire azioni. 

I quadri di intelligenza artificiale esistenti sono stati oggetto di critiche per aver ignorato la comprensione situazionale inerente al modo in cui gli esseri umani usano il linguaggio. Ad esempio, DALL.E 2, il generatore di testo in immagine, ha ricevuto molte critiche per non aver compreso la sintassi dei prompt di testo. Quindi, per un semplice testo di input come “un cucchiaio su una tazza”, le risposte includerebbero tutte le immagini costituite da un cucchiaio e una tazza nel set di dati, senza conoscere veramente la relazionalità tra il cucchiaio e la tazza nel testo. 

Per superare questo problema e creare agenti in grado di seguire le istruzioni ed eseguire azioni in sicurezza in condizioni illimitate, i ricercatori di DeepMind hanno creato un nuovo modello all’interno di un ambiente di videogiochi.

 
Il nuovo framework si allontanerà dall’addestramento degli agenti IA, mantenendo un punteggio basato su vittorie/sconfitte calcolate dal codice del computer utilizzato in applicazioni come StarCraft e Dota. Invece, le persone creeranno attività e assegneranno un punteggio agli agenti di intelligenza artificiale in base al loro comportamento. 

Sebbene sia agli inizi, il nuovo paradigma di ricerca sviluppa agenti in tempo reale che possono navigare, parlare, interagire con le persone, cercare informazioni, porre domande, controllare oggetti e svolgere varie altre attività.


Il gioco è concettualizzato sulla base della “casa dei giochi” di un bambino, in cui sia gli umani che gli agenti hanno un avatar che può interagire tra loro e manipolare gli oggetti intorno. La struttura è in quattro fasi. In primo luogo, l’interazione uomo-uomo facilita il terreno per l’addestramento degli agenti iniziali mediante l’apprendimento per imitazione. Poi arriva il ciclo dell’interazione uomo-agente con il giudizio sulle prestazioni e l’ottimizzazione di questi giudizi, che miglioreranno gli agenti sulla base dell’apprendimento per rinforzo (RL). 

La nuova ricerca si basa sul lavoro precedentemente pubblicato di DeepMind che dimostra il ruolo dell’apprendimento per imitazione nella creazione di agenti di intelligenza artificiale in grado di catturare bene la diversità del comportamento umano. Nel nuovo lavoro, viene utilizzato un modello di apprendimento per rinforzo per migliorare i sistemi di intelligenza artificiale sulla base dei punteggi ottenuti tramite valutazione umana.   

Il framework è stato anche descritto come un’utilità nella creazione di assistenti digitali e robotici, per creare un’IA sicura.

Di ihal