Il mondo dei video basati sull’intelligenza artificiale è in costante evoluzione, e un’azienda di spicco in questo settore è Runway, con sede a New York. Questa startup, specializzata nell’IA generativa, consente sia a singoli individui che a aziende di creare video in stili unici. Oggi, Runway ha annunciato un importante aggiornamento al suo modello Gen-2, introducendo un innovativo strumento chiamato “Multi Motion Brush”, che offre ai creatori la possibilità di aggiungere diverse direzioni e tipi di movimento ai loro video generati dall’IA.
Questo rappresenta un notevole passo avanti rispetto agli altri prodotti di video AI attualmente disponibili sul mercato. Mentre le soluzioni concorrenti si limitano a utilizzare l’intelligenza artificiale per aggiungere movimento all’intera immagine o a una zona selezionata, Runway permette ora di applicare il movimento in modo indipendente a più aree all’interno del video.
L’innovazione si basa sulla funzione “Motion Brush”, precedentemente introdotta nel novembre 2023, che consentiva ai creatori di aggiungere un solo tipo di movimento alla volta nei loro video. Con l’introduzione di “Multi Motion Brush”, questa limitazione è stata superata.
L’anteprima di Multi Motion Brush è stata presentata agli utenti attraverso il programma Creative Partners di Runway, che offre vantaggi come piani illimitati e accesso anticipato alle nuove funzionalità. Ora, questa potente aggiunta è disponibile per tutti gli utenti di seconda generazione di Runway, ampliando ulteriormente il già vasto arsenale di oltre 30 strumenti offerti dal modello per la produzione di video creativi.
Questo passo avanti rappresenta un notevole potenziamento per Runway, che sta giocando un ruolo chiave in un mercato in crescita rapidissima, noto come il settore dell’intelligenza artificiale creativa. Altri attori di rilievo in questo settore includono Pika Labs e Leonardo AI.
Cosa offre esattamente Multi Motion Brush? La sua idea di base è piuttosto semplice: permette agli utenti di avere un controllo più preciso sui video generati dall’IA, consentendo loro di aggiungere movimenti indipendenti alle aree di loro scelta. Questo può riguardare una vasta gamma di elementi, dalla modifica dei movimenti facciali all’orientamento delle nuvole nel cielo di uno sfondo.
L’utente inizia caricando un’immagine fissa come riferimento e “dipingendola” virtualmente con un pennello digitale controllato dal cursore del computer. Utilizzando l’interfaccia web di Runway, l’utente può quindi selezionare come vuole che le parti “dipinte” dell’immagine si muovano e con quale intensità. Ogni colore di “vernice” può essere controllato in modo indipendente.
Gli utenti possono regolare i cursori orizzontali, verticali e di prossimità per definire la direzione e l’ampiezza del movimento, come ad esempio destra/sinistra, su/giù o più vicino/più lontano. Una volta soddisfatti del risultato, è sufficiente premere “Salva”.
“Ogni cursore è controllato con un valore decimale compreso tra -10 e +10. È possibile inserire manualmente un valore numerico, trascinare il campo di testo a sinistra o a destra o utilizzare i cursori. Se si desidera ripristinare tutto ai valori predefiniti, è sufficiente fare clic su ‘Cancella’”, spiega Runway sul suo sito web.
Con l’introduzione di Multi Motion Brush, Runway amplia ulteriormente la gamma di strumenti a disposizione degli utenti per controllare i video generati dal modello Gen-2.
Questo modello è stato originariamente presentato a marzo 2023 e ha introdotto nuove funzionalità di generazione basata su testo, video e immagini. È stato un importante passo avanti rispetto al modello Gen-1, che si limitava alla generazione di video.
Inizialmente, il modello Gen-2 produceva clip video della durata massima di quattro secondi, ma a agosto è stata introdotta la possibilità di estendere la durata fino a 18 secondi. Inoltre, sono state aggiunte funzionalità come la “Modalità Direttore”, che consente agli utenti di controllare la direzione e la velocità del movimento della telecamera nei video generati, e la possibilità di selezionare lo stile del video, che può variare da cartoni animati 3D a video dal look cinematografico o pubblicitario.
Nel competitivo settore della generazione di video basati sull’IA, Runway si confronta con altri player come Pika Labs, che ha recentemente lanciato la sua piattaforma web Pika 1.0 per la generazione di video, e i modelli Stable Video Diffusion di Stability AI.
Runway offre anche uno strumento di conversione testo-immagine, competendo con altre soluzioni come Midjourney e DALL-E 3. È importante notare che, sebbene questi strumenti abbiano fatto progressi nel tempo, i risultati possono ancora presentare alcune imperfezioni, come immagini o video sfocati o incompleti.