Dopo il successo di DALL-E nell’intelligenza artificiale da testo a immagine, molte aziende hanno cominciato a sviluppare modelli da testo a video. In soli due anni, la tecnologia è passata da risultati rudimentali a produzioni iperrealistiche utilizzando semplici istruzioni testuali.
Sebbene alcuni modelli possano ancora presentare imperfezioni, molti di essi dimostrano un alto grado di controllabilità e la capacità di generare video in vari stili artistici.
Ecco sei degli ultimi modelli di intelligenza artificiale da testo a video che potresti voler esplorare (qualora disponibili):
- Sora: Presentato da OpenAI, Sora è un nuovo modello di testo in video. È apprezzato per la sua profonda comprensione del linguaggio e la capacità di creare personaggi coinvolgenti ed espressivi. Nonostante alcuni problemi, come difficoltà nel mantenere la fluidità e distinguere tra destra e sinistra, è considerato un punto di svolta nel settore.
- Lumiere: Google ha sviluppato Lumiere, un modello AI video che utilizza una nuova tecnologia chiamata STUNet. Questo sistema comprende la disposizione spaziale degli oggetti e tiene traccia dei loro movimenti nel tempo. Anche se non è ancora disponibile per il grande pubblico, suggerisce il notevole progresso tecnologico di Google.
- VideoPoet: Basato su un vasto set di dati di video, immagini, audio e testo, VideoPoet è un modello linguistico che può trasformare testo e immagini in video, applicare stili artistici e altro ancora.
- Emu Video: Meta ha creato Emu Video, che genera prima un’immagine dal testo e poi un video. È stato valutato positivamente dagli utenti rispetto ad altri modelli simili.
- Phenaki Video: Utilizzando il Mask GIT e il campionamento iterativo, Phenaki Video crea video guidati da testo in PyTorch. Il modello è aperto ai ricercatori per ulteriori sviluppi.
- CogVideo: Sviluppato dai ricercatori dell’Università di Tsinghua, CogVideo è un modello preaddestrato su larga scala per la generazione di video da testo. Ha già ottenuto successo con cortometraggi premiati.