Generally Intelligent , una nuova società di ricerca sull’IA, ha annunciato che sta uscendo dalla modalità invisibile. L’azienda sta cercando di “aiutare le macchine a imparare a capire il mondo come fanno gli esseri umani”.
Per raggiungere questo obiettivo, l’azienda prenderà i fondamenti dell’intelligenza umana che le macchine devono ancora possedere e li trasformerà in compiti da risolvere. Progetteranno e testeranno anche la capacità di diversi sistemi di imparare a risolvere i compiti in complessi mondi 3D creati dal team.
Il nostro approccio allo sviluppo di agenti intelligenti
Open-sourcing Avalon, un ambiente di ricerca sull’apprendimento per rinforzo
Qual è il prossimo
Siamo Generalmente Intelligent, una nuova società di ricerca indipendente il cui obiettivo è sviluppare agenti di intelligenza artificiale generalmente capaci con intelligenza simile a quella umana per risolvere i problemi nel mondo reale.
Crediamo che i computer generalmente intelligenti potrebbero un giorno sbloccare un potenziale straordinario per la creatività e l’intuizione umana. Tuttavia, nei modelli di intelligenza artificiale di oggi mancano diversi elementi chiave dell’intelligenza umana, che inibisce lo sviluppo di sistemi di intelligenza artificiale generici che possono essere implementati in sicurezza. Ad esempio, i sistemi odierni faticano ad imparare dagli altri, a estrapolare in modo sicuro o ad apprendere continuamente da piccole quantità di dati.
Il nostro lavoro mira a comprendere i fondamenti dell’intelligenza umana al fine di progettare sistemi di intelligenza artificiale sicuri in grado di apprendere e comprendere il modo in cui fanno gli esseri umani. Riteniamo che tali sistemi potrebbero potenziare gli esseri umani in un’ampia gamma di campi, tra cui la scoperta scientifica, la progettazione di materiali, assistenti personali e tutor e molte altre applicazioni che non riusciamo ancora a capire.
Siamo supportati da investitori a lungo termine che capiscono che il nostro progetto non include pietre miliari della commercializzazione a medio termine. Questi finanziatori hanno contribuito con oltre $ 20 milioni e hanno impegnato più di $ 100 milioni in finanziamenti futuri in una combinazione di opzioni e pietre miliari tecniche. Includono Jed McCaleb (fondatore dell’Astera Institute), Tom Brown (autore principale di GPT-3), Jonas Schneider (ex responsabile della robotica presso OpenAI) e Drew Houston (CEO di Dropbox). Il nostro comitato consultivo comprende Tim Hanson (cofondatore di Neuralink) e Celeste Kidd (professore di psicologia presso UC Berkeley).
Siamo principalmente un’organizzazione di ricerca. Sebbene il nostro obiettivo finale sia quello di implementare sistemi di intelligenza artificiale a livello umano che possano generalizzare a un’ampia gamma di attività economicamente utili, il nostro obiettivo attuale è la ricerca e la progettazione delle capacità principali di questi sistemi e lo sviluppo di strutture appropriate per la loro governance.
Il nostro approccio allo sviluppo di agenti intelligenti
Dato che l’intelligenza è spesso definita come la “capacità di raggiungere obiettivi in un’ampia gamma di ambienti”, il nostro approccio consiste nel costruire una serie di compiti che gli agenti generali possono risolvere, stratificando compiti più complessi man mano che le capacità degli agenti che sviluppiamo crescono . Per fare ciò, conduciamo ricerche sui fondamenti teorici dell’apprendimento profondo, dell’ottimizzazione e dell’apprendimento per rinforzo, che ci consentono di creare tali agenti in modo più efficace.
Sfruttiamo l’elaborazione su larga scala per addestrare i nostri agenti, anche se in un modo leggermente diverso dalle altre organizzazioni. Ci concentriamo sulla formazione di diverse architetture di agenti in modo da poter esplorare l’intero spazio delle possibilità e comprendere meglio ogni componente.
Riteniamo che questa comprensione fondamentale sia essenziale per la progettazione di sistemi sicuri e robusti. Allo stesso modo in cui è difficile creare ponti sicuri o processi chimici senza dedurre la teoria e i componenti sottostanti, pensiamo che sarà difficile realizzare sistemi di IA sicuri e capaci senza tale comprensione.
Open-sourcing Avalon, un ambiente di ricerca sull’apprendimento per rinforzo
Un esempio di come appare in pratica il nostro approccio è Avalon , un simulatore di apprendimento per rinforzo, ambiente e benchmark che presenteremo al NeurIPS 2022 e che stiamo rendendo open source oggi.
Avalon è un gioco open world in 3D in cui gli agenti devono imparare a sopravvivere in mondi generati proceduralmente.
Avalon è il primo benchmark di apprendimento per rinforzo del suo genere che consente agli agenti di apprendere da mondi 3D complessi e generati proceduralmente. Al loro interno, un singolo agente deve imparare a risolvere i tipi di problemi che, in senso evolutivo, hanno portato all’emergere delle capacità cognitive uniche della nostra specie.
L’attuale versione di Avalon definisce un’ampia gamma di compiti semplici, come arrampicarsi, saltare e lanciare, che sono aspetti fondamentali dell’intelligenza per le specie animali. Man mano che i nostri agenti progrediscono, aggiungiamo compiti progressivamente più difficili che corrispondono a pietre miliari dello sviluppo cognitivo per l’intelligenza umana. Ad esempio, stiamo attualmente esplorando attività che corrispondono all’istruzione linguistica e all’apprendimento nel corso della vita, sebbene queste attività non facciano ancora parte del benchmark Avalon che abbiamo attualmente open source.
Avalon non è solo uno dei simulatori più veloci nel suo genere, ma anche uno dei più accessibili. Costruito sulla base del motore di gioco open source Godot, Avalon viene fornito con un ricco editor e una vivace comunità per aiutare altri ricercatori a personalizzare e creare mondi che li aiuteranno a rispondere al meglio alle loro domande di ricerca.
Abbiamo incluso una libreria di linee di base e il nostro benchmark include metriche di punteggio valutate rispetto a centinaia di ore di prestazioni umane. La nostra pagina del progetto contiene una serie completa di tutorial e fornisce maggiori dettagli su come iniziare: è facile come scaricare un singolo file!
Finora abbiamo ricevuto feedback positivi su Avalon dai revisori di NeurIPS, ma ci piacerebbe sentire i ricercatori se hanno commenti e domande. Ci auguriamo che si riveli uno strumento utile che consenta ai ricercatori di porre più facilmente domande sulla generalizzazione, la robustezza e altri aspetti critici dell’intelligenza che mancano nei modelli odierni.
Ovviamente, Avalon è solo una parte del lavoro che svolgiamo in General Intelligent. Abbiamo altri lavori attualmente in fase di presentazione e sviluppo sulla sicurezza dell’IA, approcci teorici all’apprendimento auto-supervisionato, all’ottimizzazione e altri argomenti che sono fondamentali per il nostro sviluppo di agenti generici che un giorno potrebbero essere distribuiti in sicurezza nel mondo reale.
Qual è il prossimo
Presenteremo Avalon al NeurIPS 2022 a New Orleans. Siamo uno sponsor lì, quindi puoi venire al poster, alla presentazione o allo stand per salutare e saperne di più sul nostro approccio. Condivideremo più del nostro lavoro sul nostro blog nei prossimi mesi e continueremo a mettere in evidenza i ricercatori sul nostro podcast che hanno pubblicato risultati che troviamo perspicaci.
Se sei un ricercatore interessato a collaborare con il nostro team, non esitare a contattarci. Siamo sempre felici di condividere le nostre idee e aiutare nei modi in cui possiamo.
Stiamo anche cercando di assumere ricercatori e ingegneri provenienti da una vasta gamma di background, con o senza esperienza nell’apprendimento automatico o un dottorato di ricerca, che sono spinti dal desiderio di scoprire le verità fondamentali sulla natura dell’intelligenza e di affrontare le difficoltà problema di ingegnerizzare quei precedenti nei sistemi di intelligenza artificiale. Adottiamo un approccio insolitamente interdisciplinare che unisce ingegneria del software, fisica, psicologia dello sviluppo, apprendimento automatico, neuroscienze e altri campi.
Se vuoi lavorare su un approccio di principio per costruire un’intelligence generale sicura, un problema che potrebbe avere un impatto significativo sulla traiettoria del progresso umano, ci piacerebbe sentirti!