È stato sviluppato un nuovo modello che, simile a come gli esseri umani comprendono il loro ambiente e orientano la propria posizione nello spazio, crea una mappa spaziale basata su video di gioco di Minecraft. Questa tecnologia potrebbe essere fondamentale per l’intelligenza spaziale, un passo verso la creazione di robot e intelligenze artificiali generali (AGI) più avanzate.
Tom’s Hardware ha riportato un articolo pubblicato su Nature Machine Intelligence dai ricercatori del California Institute of Technology (Caltech). Il modello utilizza algoritmi di codifica predittiva e video di Minecraft per riconoscere l’ambiente circostante e generare una mappa spaziale. Questa mappa viene poi utilizzata per prevedere il fotogramma successivo del video, con un margine d’errore di solo 0,094%.
Nel progetto, i ricercatori hanno creato un ambiente complesso all’interno di Minecraft, con elementi come alberi, fiumi e grotte. Hanno registrato video di giocatori che si muovevano casualmente in questo ambiente, utilizzando questi video per addestrare il modello con l’algoritmo di codifica predittiva. Questo ha permesso al modello di comprendere come gli oggetti nel mondo di Minecraft sono correlati e di prevedere come cambierà l’ambiente mentre si sposta.
I ricercatori hanno confermato che il modello è stato in grado di memorizzare e organizzare spazialmente le informazioni sugli oggetti, dimostrando una comprensione dell’ambiente di Minecraft. Questo è il primo esempio confermato di un modello che crea autonomamente una mappa spaziale. Questa capacità potrebbe aiutare i modelli di intelligenza artificiale a diventare più intelligenti e a risolvere problemi complessi come fanno gli esseri umani, superando così le limitazioni dei modelli linguistici esistenti (LLM).
La ricerca sull’intelligenza spaziale è attualmente in corso presso istituzioni come l’Università di Stanford, OpenAI, Google, Meta e xAI, con l’obiettivo di sviluppare AGI. La creazione di mappe spaziali nei giochi potrebbe essere una base per capacità cognitive avanzate simili a quelle umane.
Il codice del modello è disponibile su GitHub.