Runway ha annunciato il suo nuovo modello di generazione video, Gen-4.5, e lo ha fatto con un’affermazione che ha subito attirato l’attenzione dell’intero settore: il sistema non solo migliora in modo significativo le performance della precedente generazione, ma supera anche i risultati ottenuti dal modello concorrente di Google, Veo 3. La notizia arriva in un momento in cui la competizione nella generazione video sta diventando sempre più serrata, con OpenAI, Google e una serie di aziende specializzate che si contendono il primato tecnologico.
Gen-4.5 viene presentato come un modello capace di raggiungere un livello di “precisione fisica” e “precisione visiva” che lo rende, nelle parole dell’azienda, in grado di produrre output quasi indistinguibili da video reali. Ciò significa che il sistema riesce a gestire con maggiore coerenza elementi come peso, inerzia, accelerazione, fluidità dei movimenti e interazioni tra oggetti, dettagli che fino a poco tempo fa rappresentavano uno dei limiti più evidenti dei modelli generativi. Runway sottolinea inoltre che la simulazione dei fluidi, il comportamento dei liquidi e la dinamica degli oggetti in movimento risultano più naturali, un elemento che oggi viene considerato una delle principali prove di maturità tecnologica nel campo del video generativo.
Accanto alla fedeltà fisica, Gen-4.5 migliora anche nella capacità di interpretare fedelmente le istruzioni testuali dell’utente. L’azienda spiega che il modello ora aderisce con maggiore coerenza ai prompt, mantenendo un ritmo narrativo più comprensibile e gestendo stili visivi diversi con facilità: dal fotorealismo cinematografico alle estetiche più astratte o stilizzate. Una caratteristica pensata per adattarsi ai contesti più diversi, dalla pubblicità alla produzione creativa, fino agli esperimenti artistici.
Nonostante i progressi, Runway ammette che esistono ancora limiti e sfide da superare. La persistenza degli oggetti e la gestione della causalità rimangono punti delicati: nei video generati è ancora possibile osservare fenomeni innaturali, come porte che si aprono prima che un personaggio le tocchi, o oggetti che cambiano forma o posizione senza motivo. Imperfezioni che ricordano quanto la simulazione del mondo fisico sia complessa da ricreare, soprattutto quando il sistema deve combinare logica, continuità, percezione e creatività.
L’annuncio è stato accolto con particolare interesse dopo la pubblicazione della classifica aggiornata di Video Arena, la piattaforma indipendente di benchmark gestita da Artificial Analysis. Gen-4.5 di Runway si è posizionato al primo posto, superando il modello Veo 3 di Google, mentre Sora 2 Pro di OpenAI ha conquistato il settimo posto. Per una realtà con appena un centinaio di dipendenti, prevalere su colossi da miliardi di fatturato rappresenta un risultato simbolico e strategico di grande rilevanza. Lo stesso CEO di Runway, Cristóbal Valenzuela, ha commentato il traguardo sottolineando come la concentrazione e la sperimentazione continua possano permettere anche a team di dimensioni ridotte di competere nella fascia più alta dell’innovazione.
Il settore della generazione video sta attraversando una fase di crescita rapidissima, soprattutto per quanto riguarda la simulazione fisica. OpenAI, nel presentare Sora 2, aveva evidenziato la capacità del modello di ricreare con precisione la dinamica dei fluidi e il comportamento dell’acqua durante movimenti complessi, mentre Google ha introdotto miglioramenti analoghi nel suo aggiornamento Veo. La corsa all’accuratezza fisica è diventata un punto di confronto centrale: chi riuscirà a simulare il mondo reale con maggiore fedeltà conquisterà un vantaggio decisivo in settori come effetti visivi, produzione cinematografica, pubblicità e creazione di contenuti per piattaforme social.
La distribuzione di Gen-4.5 è prevista già questa settimana e il modello sarà accessibile tramite la piattaforma Runway, le API e i partner tecnologici. Una diffusione rapida che punta a rendere immediatamente disponibile la nuova generazione di strumenti a creativi, professionisti e aziende che già oggi utilizzano modelli generativi nei loro flussi di lavoro.
