Immagine AI

L’idea che un’azienda famosa per i social e l’ecosistema digitale stia investendo in un umanoide sembra uscita da un romanzo di fantascienza. E invece è esattamente ciò che Meta — l’azienda che ha in parte plasmato la nostra “realtà virtuale” — sta facendo: un umanoide chiamato Metabot, con un “cervello” basato su modelli generativi e un “mondo interno” costruito per navigare e comprendere l’ambiente. Il progetto è emerso come l’incrocio tra visione, AI e robotica, con una serie di sfide tecniche, filosofiche e ingegneristiche che meritano di essere raccontate con attenzione.

L’idea che Meta volesse cimentarsi nel mondo dell’hardware e della robotica non è nuova: già a febbraio era stata divulgata la notizia che Meta stava lavorando a un robot umanoide. Ma oggi, quella notizia assume contorni concreti, con la conferma che un nuovo laboratorio, il Meta Super Intelligence Lab (MSL), è coinvolto nella costruzione del “world model” per Metabot.

Il CTO di Meta, Andrew Bosworth, ha chiarito che l’approccio non è quello di fare “tout-hardware” come Tesla (hardware + AI in casa), ma piuttosto concentrarsi sull’AI, affidando la produzione hardware a partner esterni. Le parole sono nette: “il vero problema è il software”, ha detto, suggerendo che Meta ritiene di poter fare la differenza sul fronte algoritmico e cognitivo.

Meta non sta semplicemente mettendo pezzi di robot insieme: sta costruendo un “mondo mentale interno” che consenta al robot di interpretare, pianificare, agire e reagire al contesto. Questo “world model” non è una semplice rappresentazione grafica o geometrica, ma un modello cognitivo del mondo — una simulazione mentale che consente all’agente robotico di prevedere conseguenze, ragionare su alternative e adattarsi ai cambiamenti. In questo senso, la MSL è cruciale: è il laboratorio che cerca di fondere visione, ragionamento e interazione.

In più, Meta ha reclutato figure di spicco per rafforzare il progetto: tra queste, il neuroscienziato Kim Sangbae del MIT ha una storica esperienza nel controllo e nel movimento robotico. E inoltre, la società Scale AI (specializzata nella creazione di set di dati e annotazione) è entrata nel progetto con un investimento significativo: Meta ha acquisito il 49 % della società e ne sfrutta i team per raccogliere dati su movimenti, traiettorie, manipolazione di oggetti. Si parla di oltre mille ore di video al giorno per generare dati robotici su cui addestrare modelli.

Da un punto di vista industriale e pratico, le applicazioni Metabot sarebbero molte: assistenza fisica, manutenzione, ambienti pericolosi, supporto logistico avanzato, interazione sociale robot-umano. Ma ogni contesto dovrà fare i conti con limiti energetici, sicurezza, affidabilità e costo.

Inoltre, il fatto che Meta stia mettendo l’AI al centro, più che l’hardware, suggerisce che vede un vantaggio competitivo nell’“intelletto” del robot, piuttosto che nei materiali o nei motori. Ciò implica che la differenziazione futura tra robot non sarà tanto nei componenti meccanici, ma nei modelli, nel “mondo interno” e nell’integrazione cognitiva.

Meta, perciò, gioca un ruolo diverso rispetto a competitor come Tesla o Boston Dynamics. Più che produrre in proprio, punta su ecosistemi, partnership e modularità: creare un “cervello” che possa essere adottato da diversi hardware, piuttosto che vincolare tutto in un unico design. Ciò può favorire la diffusione, la sperimentazione e l’espansione dell’idea robotica con un rischio finanziario e ingegneristico mitigato.

Di Fantasy