Immagine AI

Il gruppo di ricerca guidato da Seung-Jun Kim presso il Gwangju Institute of Science and Technology ha sviluppato un sistema aptico indossabile, chiamato Finger-Mounted Extending Rod, progettato per rendere più realistico l’uso di strumenti virtuali in ambienti VR e XR. Il dispositivo si indossa sulle dita e utilizza una piccola asta metallica mobile per modificare in tempo reale la distribuzione della massa percepita dall’utente, simulando così il baricentro, il peso apparente e l’inerzia rotazionale di oggetti virtuali come martelli, lame, bacchette, tonfa, pistole o bicchieri. La ricerca è stata presentata nel contesto di ACM CHI 2026, una delle principali conferenze internazionali dedicate all’interazione uomo-computer.

Il punto tecnico più interessante è che il sistema non cerca di riprodurre il peso reale dell’oggetto virtuale, ma sfrutta una forma di amplificazione percettiva. Invece di costruire un controller grande, pesante o meccanicamente complesso, il dispositivo agisce su una piccola massa mobile collocata sul dito. Spostando avanti e indietro l’asta metallica, il sistema modifica il momento d’inerzia percepito dalla mano e dal polso. Quando l’asta si estende verso la punta del dito, il baricentro si allontana e l’utente avverte una maggiore resistenza al movimento, come accade quando si impugna uno strumento lungo o sbilanciato. Quando l’asta si ritrae, il gesto torna più leggero e rapido, avvicinandosi alla sensazione di un oggetto corto o maneggevole.

Questa scelta affronta uno dei limiti storici della realtà virtuale. Negli ultimi anni, visori, display, tracking spaziale e rendering grafico hanno raggiunto livelli sempre più convincenti, ma la componente tattile e propriocettiva resta molto più difficile da riprodurre. Vedere una spada, un martello o una bottiglia in VR non basta a far percepire il corpo dell’oggetto. Un controller tradizionale vibra, invia impulsi o resiste in modo limitato, ma non cambia realmente il modo in cui il polso sente la distribuzione della massa. Il risultato è che molti oggetti virtuali appaiono diversi sul piano visivo, ma vengono percepiti in modo molto simile dal punto di vista fisico.

Il Finger-Mounted Extending Rod prova a risolvere questo problema spostando l’interfaccia dal controller alla mano stessa. La mano non viene più trattata solo come un punto da tracciare nello spazio, ma come parte attiva del sistema aptico. Il dito diventa il supporto fisico su cui modulare la sensazione di lunghezza, baricentro e inerzia dello strumento virtuale. È una differenza sostanziale perché riduce la dipendenza da controller universali e apre la possibilità di interazioni più dirette, dove la forma percepita dell’oggetto nasce dalla combinazione tra visione, postura della mano e feedback meccanico locale.

Il principio è relativamente semplice ma molto efficace. L’inerzia rotazionale di un oggetto dipende non solo dalla sua massa, ma anche da come quella massa è distribuita rispetto all’asse di rotazione. Una piccola massa posta lontano dal punto di rotazione può generare una resistenza percepita molto maggiore rispetto alla stessa massa posta vicino alla mano. Per questo un martello, una mazza o una spada sembrano “tirare” il polso in modo diverso da un coltello corto o da una bacchetta leggera. Il dispositivo di GIST sfrutta proprio questa proprietà: non deve aggiungere molto peso, ma deve posizionarlo nel punto giusto e nel momento giusto.

La componente software è altrettanto importante. Il movimento dell’asta non è indipendente dalla scena virtuale, ma viene sincronizzato con il comportamento dell’oggetto rappresentato in VR. Se l’utente vede una bacchetta o un tonfa ruotare nello spazio, il dispositivo deve produrre una variazione coerente della massa distribuita sul dito. Se il feedback fisico arriva in ritardo, è troppo debole o non corrisponde al movimento visivo, l’effetto può diventare artificiale o disturbante. La ricerca insiste proprio sull’allineamento tra informazione visiva e sensazione tattile: quando i due segnali sono coerenti, aumentano immersione, realismo e piacere d’uso.

Un aspetto particolarmente rilevante è l’uso della cosiddetta inertia tensor similarity, cioè una misura della somiglianza tra l’inerzia prodotta dal dispositivo e quella dello strumento virtuale che si vuole rappresentare. Non basta far sentire genericamente “più peso”: il sistema deve riprodurre una distribuzione coerente della resistenza al movimento. Nelle valutazioni riportate nel programma di CHI 2026, i ricercatori hanno analizzato l’embodiment delle posture delle dita, la corrispondenza tra strumenti virtuali e tensori d’inerzia, la percezione della lunghezza e l’esperienza d’interazione in VR. I risultati indicano che 10 posture su 15 hanno mantenuto embodiment, con similarità del tensore d’inerzia tra 0,936 e 0,991 per gli strumenti abbinati.

Il dato più sorprendente riguarda però l’amplificazione percettiva. Gli esperimenti hanno mostrato che gli utenti percepivano l’inerzia in modo molto superiore al valore fisico teorico prodotto dal dispositivo. Le misurazioni sul punto di equivalenza soggettiva hanno indicato amplificazioni comprese tra 4,19 e 10,45 volte. In pratica, una stimolazione meccanica relativamente piccola può produrre nella percezione dell’utente una sensazione di peso e resistenza molto più intensa. Questo risultato è cruciale perché rende plausibile la costruzione di dispositivi aptici leggeri, indossabili e poco invasivi, senza dover replicare fisicamente la massa reale degli oggetti virtuali.

La ricerca sfrutta quindi un principio tipico dell’interazione multisensoriale: il cervello non misura il peso in modo puramente meccanico, ma integra segnali visivi, propriocettivi, tattili e motori. Se l’utente vede un oggetto lungo e contemporaneamente sente una resistenza compatibile con quell’oggetto, il sistema percettivo tende a costruire una sensazione unificata. La massa reale del dispositivo può essere modesta, ma la coerenza tra ciò che si vede e ciò che si sente genera un effetto di presenza molto più forte.

Questa impostazione è diversa dai classici controller aptici basati solo su vibrazione. La vibrazione può segnalare un contatto, un impatto o una texture, ma non è sufficiente per simulare in modo convincente la dinamica di un oggetto impugnato. Quando si usa un martello, non si percepisce solo il colpo: si percepisce il modo in cui la testa del martello trascina il braccio durante il movimento. Quando si usa una lama lunga, non si sente solo la superficie: si sente la resistenza rotazionale della massa distribuita nello spazio. Il Finger-Mounted Extending Rod interviene proprio su questo livello più profondo dell’interazione corporea.

La scelta di montare il dispositivo sul dito è importante anche per la scalabilità dell’interfaccia. Un controller aptico capace di cambiare forma, peso o baricentro può diventare ingombrante, costoso e difficile da adattare a molti scenari. Un sistema da dito, invece, può essere più compatto e potenzialmente combinabile con altri dispositivi di tracking manuale. In prospettiva, più moduli potrebbero essere distribuiti su diverse dita per simulare strumenti, leve, oggetti deformabili o interazioni manuali più complesse. La ricerca attuale si concentra sulla simulazione dell’inerzia degli strumenti, ma il principio potrebbe estendersi ad altre forme di feedback fisico.

Gli scenari dimostrativi descritti dai ricercatori includono strumenti con comportamenti molto diversi, come bacchette da batteria, pistole, coltelli, tonfa e boccali. Questa varietà serve a mostrare che il sistema non è pensato per un singolo oggetto, ma per una classe di interazioni in cui la forma e il baricentro dello strumento modificano il gesto. In una simulazione musicale, ad esempio, la differenza tra una bacchetta leggera e un oggetto più pesante può incidere sul ritmo e sulla naturalezza del movimento. In un training manuale, la resistenza percepita può aiutare l’utente a distinguere strumenti con funzioni diverse. In un videogioco, la coerenza fisica può rendere più credibile l’uso di armi, utensili o oggetti ambientali.

Il possibile impatto non riguarda soltanto l’intrattenimento. Le tecnologie XR stanno entrando progressivamente in formazione tecnica, manutenzione remota, simulazione industriale, addestramento medico, progettazione collaborativa e teleoperazione. In tutti questi contesti, la qualità dell’interazione fisica diventa decisiva. Un tecnico che si addestra a usare uno strumento virtuale deve percepire almeno una parte delle differenze meccaniche tra utensili diversi. Uno studente che impara procedure pratiche in un ambiente immersivo ha bisogno di un feedback corporeo più informativo della semplice visualizzazione 3D. Un operatore remoto potrebbe beneficiare di segnali aptici leggeri ma coerenti per capire come un oggetto virtuale o robotico risponde al movimento.

Il sistema di GIST si inserisce quindi in una tendenza più ampia: passare da una VR centrata prevalentemente sulla visione a una XR in cui il corpo torna a essere parte dell’interfaccia. La realtà virtuale è convincente quando non costringe l’utente a tradurre continuamente tra ciò che vede e ciò che sente. Se un oggetto appare pesante ma la mano non riceve alcuna informazione coerente, il cervello registra una frattura tra immagine e azione. Se invece anche un piccolo segnale meccanico conferma la forma fisica dell’oggetto, l’interazione diventa più naturale.

Naturalmente, il dispositivo non elimina tutti i limiti dell’aptica immersiva. Simulare il baricentro e l’inerzia non significa riprodurre integralmente peso statico, forza di contatto, rigidità, attrito, texture o deformazione dell’oggetto. Un bicchiere, un martello o un coltello non sono definiti solo dal modo in cui resistono alla rotazione, ma anche dal contatto con il palmo, dalla pressione sulle dita, dalla temperatura, dalla superficie e dall’effetto del materiale. Il Finger-Mounted Extending Rod affronta una componente specifica ma importante dell’esperienza: la sensazione dinamica associata al movimento dello strumento.

Proprio per questo il valore della ricerca è architetturale. Non propone una soluzione completa a ogni forma di feedback tattile, ma dimostra che una parte significativa della presenza fisica può essere ottenuta con un dispositivo minimo, se il segnale aptico viene progettato in modo percettivamente coerente. Questo è un principio fondamentale per la progettazione di interfacce XR future: non è sempre necessario riprodurre fedelmente la fisica reale; in molti casi è più efficace produrre il segnale minimo capace di attivare la percezione corretta.

Il lavoro mostra anche l’importanza della progettazione centrata sul corpo. La mano umana non è solo un organo di input, ma un sistema sensoriale estremamente raffinato. Polso, dita, tendini, articolazioni e muscoli comunicano continuamente informazioni sulla posizione, sullo sforzo e sulla resistenza incontrata. Un’interfaccia aptica efficace deve dialogare con questo sistema, non limitarsi a produrre vibrazioni generiche. Spostando una piccola massa in modo sincronizzato con la postura della mano e con l’oggetto virtuale, il dispositivo riesce a sfruttare la sensibilità del corpo alla variazione d’inerzia.

Molti sistemi aptici avanzati richiedono esoscheletri, bracci robotici, guanti con attuatori multipli o controller specializzati. Queste soluzioni possono essere potenti, ma spesso sono costose, pesanti o difficili da portare in applicazioni consumer. Un modulo da dito è più vicino a un accessorio indossabile. Se ulteriormente miniaturizzato, alleggerito e reso robusto, potrebbe diventare una componente integrabile in controller XR, guanti aptici o sistemi di training professionale.

La ricerca evidenzia anche un possibile cambio di paradigma per i controller VR. Oggi molti sistemi usano dispositivi generici che rappresentano qualsiasi oggetto virtuale attraverso lo stesso corpo fisico. L’utente tiene sempre in mano lo stesso controller, anche se nel mondo virtuale sta usando un utensile, una pistola, una torcia o una racchetta. Il Finger-Mounted Extending Rod suggerisce una direzione diversa: un’interfaccia fisica riconfigurabile, capace di adattare la propria dinamica all’oggetto virtuale. Non cambia necessariamente forma in modo macroscopico, ma cambia il modo in cui il corpo la percepisce.

Questo approccio potrebbe essere particolarmente utile nei sistemi di formazione, dove la fedeltà percettiva conta più della spettacolarità visiva. In un simulatore industriale, ad esempio, distinguere tra uno strumento leggero e uno con baricentro spostato può aiutare l’utente a sviluppare gesti più corretti. In un corso di sicurezza, la sensazione di inerzia può rendere più evidente il rischio di movimenti bruschi o errati. In un contesto medico o riabilitativo, feedback calibrati potrebbero essere usati per guidare il movimento, aumentare la consapevolezza corporea o rendere più coinvolgenti gli esercizi.

La presentazione a CHI 2026 conferma che il progetto si colloca nel campo dell’interazione uomo-computer più che nella sola ingegneria meccanica. Il valore non sta soltanto nel dispositivo, ma nel modo in cui il sistema combina attuazione fisica, rappresentazione virtuale, postura della mano, percezione dell’inerzia e valutazione dell’esperienza utente. Le tre valutazioni citate nella descrizione della ricerca mostrano infatti un percorso completo: prima la verifica dell’embodiment delle posture, poi la percezione della lunghezza e dell’inerzia, infine l’esperienza di interazione in scenari VR.

Il risultato più importante è che l’allineamento tra tensore d’inerzia e strumento virtuale ha migliorato immersione, realismo e divertimento rispetto a condizioni non allineate o prive del dispositivo. Questo indica che non basta aggiungere un feedback fisico qualsiasi: il feedback deve essere semanticamente coerente con l’oggetto rappresentato. Una resistenza sbagliata può essere inutile o persino controproducente, perché rompe la corrispondenza tra vista e corpo. Una resistenza calibrata, invece, può aumentare la credibilità dell’interazione anche se il dispositivo resta fisicamente semplice.

Di Fantasy