C’è un’immagine che aiuta a capire subito la portata dell’annuncio: riprendi con lo smartphone una coreografia di danza, carichi il video su una piattaforma e, pochi istanti dopo, un umanoide la replica davanti a te, con tempi, postura ed espressività che ricordano il modello umano. Non stiamo parlando di un laboratorio iper-specializzato, né di un team di ingegneri all’opera. L’idea è che possa farlo chiunque. È questo il cuore di LinkCraft, il nuovo software presentato da AgiBot, la giovane azienda cinese che da mesi anima il racconto della “fisicizzazione” dell’IA: trasformare il telefono in uno strumento da regia per robot, una cabina di montaggio dove gesti, voce ed emozioni vengono orchestrati come tracce di un editor video.
LinkCraft nasce per aggredire il punto dolente che da sempre frena l’adozione dei robot umanoidi fuori dai demo spettacolari: la programmabilità. La promessa è radicale: zero codice, zero attrezzature speciali. Il pilastro tecnico è la imitazione di movimento: da un semplice filmato lo strumento estrae la dinamica del corpo, la traduce e la “ri-targetta” sulla cinematica dell’umanoide compatibile (oggi la serie X2 di AgiBot), generando sequenze motorie pronte all’uso. Intorno a questo nucleo, la piattaforma avvolge un’interfaccia familiare a chi monta clip: una timeline dove trascinare “clip di azioni”, tracce audio registrate o TTS e preset di espressioni. Il risultato è una grammatica narrativa che sposta l’attenzione dal codice alla messa in scena: si costruiscono performance più che programmi, con la possibilità – non secondaria – di sincronizzare più robot in scena, come un corpo di ballo o uno staff di accoglienza coordinato.
Il cambio di paradigma è soprattutto culturale. Per anni i robot hanno chiesto agli umani di parlare il loro linguaggio – cinemática, attuatori, traiettorie, PID, ROS. LinkCraft prova a spostare l’asse: chiede ai robot di parlare il linguaggio audiovisivo che milioni di persone maneggiano già su TikTok o in un software di editing. È un invito a registi, marketer, formatori, performer, tecnici di retail e hospitality: non più “programmare” un automa, ma dirigerne il comportamento. Se funziona, l’effetto di rete può essere importante: più creatori generano librerie di movimenti, più cresce un vocabolario performativo riutilizzabile, proprio come accade con i “capcut template” o i preset LUT nel video.
Naturalmente la traduzione da gesto umano a movimento robotico è un’arte fragile. Il grado di fedeltà e la ripetibilità contano. I materiali finissimi – il gioco delle dita, la micro-espressione che dà senso a una battuta, il tempo comico di un inchino – sono il banco di prova. AgiBot, nella sua comunicazione, lascia intendere che il focus immediato sia sulle macro-azioni del corpo e che il controllo fine delle dita arrivi più avanti. È una road-map onesta: l’asticella non si alza sulla perfezione anatomica, ma sulla utilità immediata in contesti dove un robot “parlante” e credibile serve a intrattenere, accogliere, guidare. Pensiamo ai foyer di un museo, a un centro commerciale, a un evento aziendale: luoghi dove l’attenzione è preziosa e la sceneggiatura – più che l’assemblaggio di bulloni – fa la differenza.
Questo tassello software si capisce meglio se lo si incastra nel momento storico di AgiBot e, più in generale, dell’ecosistema cinese della robotica umanoide. L’azienda, fondata nel 2023 e già avvezza a dimostrazioni muscolari – dal capovolgimento acrobatico Webster all’inedita combinazione di forza e agilità industriale – corre su due binari: da un lato l’hardware, con mass-production dichiarata per la linea X2 e spinte sul fronte “G2” per usi industriali; dall’altro il software, dove LinkCraft si candida a essere la leva di adozione che converte prototipi in prodotti. La traiettoria è sostenuta anche da capitali e riconoscimenti: in agosto la società ha comunicato un nuovo giro di finanziamento con la partecipazione, tra gli altri, di LG Electronics e Mirae Asset, segnale che il tema “embodied AI” sta uscendo dall’alveo sperimentale per interessare strategicamente grandi attori asiatici.
In controluce si intravede anche la geopolitica della robotica. La Cina ha abbracciato la strategia dei robot umanoidi come asset industriale e mediatico, spingendo su supply chain locali per attuatori, sensori e riduttori, e riducendo il costo di una piattaforma umanoide a livelli che, fino a ieri, erano impensabili. In questo contesto, una suite come LinkCraft è più di una funzione carina: è la porta d’ingresso per clienti che non hanno team di robotica interni ma hanno esigenze vive di spettacolarizzazione, servizio, formazione. Se anche solo una parte di questi casi d’uso si consolidasse, vedremmo un’adozione “dal fronte di palco” verso la retrovia industriale, con robot che imparano non solo a muoversi, ma a comunicare.
Reuters
Ci sono, va detto, domande che meritano attenzione. La prima è la sicurezza: un sistema che “mima” gesti umani deve imporre limiti chiari perché un movimento brillante sul palco non diventi pericoloso in spazi affollati. La seconda è la generalizzazione: quanto regge la traduzione da un corpo umano non vincolato alle proporzioni e ai vincoli di un robot? E poi la proprietà dei contenuti: coreografie, voci, espressioni sono materiali creativi; le aziende dovranno capire come contrattualizzarli, archiviarli, proteggerli, magari monetizzarli. Infine il lato operativo: se LinkCraft abbassa la barriera all’ingresso, il passo successivo sarà dotarlo di sensori, contesto, vincoli spaziali, perché le performance non restino isole ma diventino comportamenti situati in ambienti reali.
Eppure è difficile non cogliere, in questo annuncio, una svolta di linguaggio. Per una volta, non si chiede al pubblico di entusiasmarsi per una coppia di attuatori iper-efficienti, per un torque-density da record o per un video di parkour perfetto. Si chiede di immaginare cosa raccontare con un robot. Si chiede di fare montaggio con gesti, voce e sguardi meccanici. Si chiede, in sostanza, di passare dalla domanda “che cosa sa fare questo umanoide?” alla domanda “che cosa vuoi fargli dire?”. E quando una tecnologia cambia la domanda, di solito sta già cambiando anche il mercato.