Il settore della robotica avanzata sta compiendo un passo decisivo verso il superamento dei limiti dell’apprendimento per imitazione tradizionale grazie a una nuova tecnologia sviluppata dal team di ricerca del professor Lee Kyu-bin presso il Gwangju Institute of Science and Technology. Fino a oggi, la maggior parte dei sistemi robotici si è basata prevalentemente su dati visivi estratti da telecamere RGB, un metodo che, pur essendo efficace per il posizionamento spaziale, risulta intrinsecamente carente nel rilevare le sottili variazioni di resistenza fisica e le forze istantanee necessarie per manipolazioni di alta precisione. La nuova ricerca introduce un framework che combina un dispositivo di misurazione della forza manuale con un modello di intelligenza artificiale proprietario denominato Frequency Mapping-Sensory Integration (FMT), progettato per permettere ai robot di apprendere simultaneamente la forza tattile e il movimento cinetico, emulando con estrema fedeltà il senso del tatto umano.
L’architettura tecnica di questo sistema si basa sulla capacità di raccogliere e sincronizzare flussi di dati eterogenei in tempo reale. Il dispositivo di misurazione, montato sul polso di un operatore umano durante la fase di addestramento, cattura non solo le immagini video del compito svolto, ma anche dati granulari sulla forza rotazionale, sulla posizione della mano e sulla pressione esercitata. Una delle sfide ingegneristiche più complesse affrontate dal team del GIST riguarda la distinzione tra la forza di contatto effettiva e le interferenze causate dal peso del dispositivo stesso o dal movimento del braccio. Per risolvere questa criticità, i ricercatori hanno implementato un marcatore 3D abbinato a una funzione di compensazione della gravità, che permette di isolare con precisione millimetrica solo la forza generata dall’interazione diretta con l’oggetto, eliminando il rumore statico ambientale.
Il cuore dell’innovazione risiede nel modello FMT, il quale affronta il problema tecnico della differenza nelle frequenze di campionamento tra i sensori di forza e i flussi video. Mentre le telecamere registrano tipicamente a frequenze relativamente basse, i sensori tattili producono un volume di dati ad alta frequenza che descrivono micro-vibrazioni e variazioni repentine di pressione. Il modello FMT analizza questi dati separatamente in base alla loro frequenza di origine e li integra successivamente in un unico processo di apprendimento. Questa fusione sensoriale consente al robot di comprendere simultaneamente dove si trova un oggetto nello spazio e quale sia l’esatta situazione di contatto, rendendolo capace di percepire la resistenza necessaria per inserire un connettore o la delicatezza richiesta per aprire un coperchio senza danneggiare i componenti.
L’efficacia di questo approccio è stata dimostrata attraverso una serie di test rigorosi su sei attività industriali critiche, tra cui l’assemblaggio di apparecchiature elettroniche, l’inserimento di batterie e il collegamento di cavi di rete. I risultati mostrano un tasso di successo medio dell’83%, un incremento di circa quattro volte rispetto ai metodi basati esclusivamente sulla visione artificiale. Questa stabilità operativa apre prospettive inedite nei settori manifatturiero, automobilistico ed elettronico, dove la precisione millimetrica è un requisito fondamentale. Presentata ufficialmente per la conferenza ICRA 2026, questa tecnologia segna il passaggio da una robotica che “vede” a una robotica che “sente”, fornendo alle macchine la capacità di adattarsi autonomamente a variazioni fisiche impreviste e di gestire materiali fragili o complessi con una destrezza precedentemente riservata solo agli operatori umani.
