RunwayML ha annunciato che il suo nuovo modello di punta, Gen-3 Alpha, è ora disponibile per il pubblico. Questo modello avanzato consente agli utenti di creare video AI estremamente realistici da testi, immagini o prompt video. L’accesso al modello è stato reso ampiamente disponibile sulla piattaforma RunwayML, offrendo alta fedeltà e possibilità di controllo per una varietà di applicazioni creative, inclusa la pubblicità, simile a quanto OpenAI ha mostrato con Sora.
Tuttavia, c’è un aspetto da considerare: Gen-3 Alpha non è gratuito come i modelli precedenti, Gen-1 e Gen-2. Gli utenti dovranno sottoscrivere un piano a pagamento di RunwayML, che parte da $12 al mese per gli editor, con fatturazione annuale.
Dopo aver lanciato i modelli Gen-1 e Gen-2 l’anno scorso, RunwayML è rimasta silenziosa sul fronte dei modelli fino al recente annuncio di Gen-3 Alpha. Mentre altri competitor come Stability AI, OpenAI Pika e Luma Labs hanno presentato le loro proposte, RunwayML ha ora colpito con questa nuova versione avanzata.
Gen-3 Alpha è stato addestrato su video e immagini annotate con descrizioni dettagliate, permettendo agli utenti di creare video altamente realistici con transizioni elaborate, key-framing preciso e personaggi umani espressivi con una vasta gamma di azioni e emozioni.
I campioni condivisi da Runway mostrano un notevole miglioramento rispetto ai modelli precedenti in termini di velocità, fedeltà, coerenza e fluidità del movimento. Nonostante non siano stati divulgati dettagli specifici sulla fonte dei dati di addestramento, l’azienda ha lavorato con un team interdisciplinare per sviluppare queste nuove capacità.
Con Gen-3 Alpha ora ampiamente accessibile, gli utenti possono iniziare a utilizzare il modello per vari progetti creativi, sottoscrivendo il piano a pagamento di Runway. Inizialmente concentrato sulla modalità testo-video, il modello si espanderà presto per supportare altre modalità come immagine-video e video-video, integrando funzionalità avanzate di controllo come Motion Brush, Advanced Camera Controls e Director Mode sulla piattaforma Runway.
Ogni video generato può durare fino a 10 secondi, con una velocità di generazione variabile in base alla complessità del video. Anche se questo è migliore di molti modelli video AI, è inferiore alle generazioni promesse da OpenAI con Sora, che arriveranno fino a un minuto.
Il futuro di Gen-3 Alpha si preannuncia interessante, con ulteriori miglioramenti attesi nei prossimi mesi, inclusa una versione gratuita del modello in futuro. RunwayML descrive questo modello come il primo di una nuova serie, addestrato su un’infrastruttura avanzata per l’addestramento multimodale su larga scala, mirando a modelli capaci di rappresentare e simulare una vasta gamma di situazioni reali.
In sintesi, Gen-3 Alpha di RunwayML rappresenta un passo significativo verso l’avanzamento della generazione di video AI, offrendo agli utenti possibilità creative potenzialmente rivoluzionarie, sebbene a un costo.