All’undicesima edizione della Roblox Developer Conference (RDC 2025), Roblox ha svelato un ventaglio di strumenti supportati dall’intelligenza artificiale, pensati per potenziare la creatività, la monetizzazione e l’inclusività all’interno della sua community globale di creatori. L’atmosfera era vibrante: la piattaforma ha svelato tecnologie che promettono di ridefinire il modo in cui gli sviluppatori interagiscono con i loro mondi virtuali, trasformando le idee in esperienze vivide e accessibili.
Al centro delle novità, la funzione sperimentale Oggetto 4D introduce una profondità nuova nella produzione in 3D. Non si tratta più di modellare semplicemente un’auto, ma di creare un’entità vivida, capace di guidare, aprire porte e interagire come se fosse reale. Questa “quadridimensionalità” unisce la dimensione spaziale classica con un comportamento dinamico, aprendo nuove strade per rendere i mondi Roblox più immersivi che mai. Il rollout dell’anteprima è previsto per il quarto trimestre del 2025.
Immagina di ascoltare la voce di un giocatore in una lingua diversa dalla tua, ma di comprenderla in tempo reale nella tua lingua madre. Roblox ha annunciato che, a partire dal prossimo anno, la traduzione vocale in tempo reale renderà questa esperienza possibile, rendendo le chat vocali fluide, naturali e comprensibili per tutti, ovunque si trovino nel mondo.
Per ampliare le possibilità creative, sono state introdotte:
- Un’API Text-to-Speech (TTS) che consente di generare narrazioni pre-registrate, voice-over e sottotitoli vocali, utilizzando fino a 10 voci preimpostate con personalizzazione del tono e della velocità.
- Un’API Speech-to-Text (STT), che trasforma i comandi vocali in azioni in-game — come “Apri la porta” o “Spara il laser” — introducendo un livello di interazione completamente hands-free e immersivo.
Roblox ha anche annunciato un potenziamento delle sue funzionalità di Assistant, che permettono ai creatori di programmare, texturizzare e addestrare usando il linguaggio naturale. Queste funzionalità saranno compatibili con il Model Context Protocol (MCP) entro fine settembre 2025 — un passo importante verso lo sviluppo assistito dall’IA capace di comprendere e rispondere nel flusso del contesto creato dall’utente.