Google ha recentemente introdotto “Veo 2”, un modello avanzato di intelligenza artificiale progettato per la generazione di video. Questo sviluppo ha suscitato un notevole interesse nella comunità tecnologica, soprattutto in relazione alle sue prestazioni rispetto a “Sora” di OpenAI, un altro modello AI dedicato alla creazione di contenuti video.
Tester e utenti hanno iniziato a confrontare i due modelli, evidenziando differenze significative nella qualità e nella coerenza dei video generati. In particolare, Veo 2 sembra produrre risultati più realistici e accurati, mentre Sora ha mostrato alcune limitazioni nella rappresentazione di movimenti e interazioni fisiche.
Ad esempio, in un test che richiedeva la generazione di un video di una persona che mangia una zuppa, Veo 2 ha creato una scena realistica, mentre Sora ha prodotto un output meno coerente, con movimenti innaturali. In un altro confronto, dove il prompt richiedeva la rappresentazione di una persona che taglia un pomodoro, Veo 2 ha generato un video accurato, mentre Sora ha mostrato imprecisioni significative.
Queste differenze possono essere attribuite ai diversi approcci di addestramento dei modelli. Si ritiene che Google abbia utilizzato un vasto dataset di video di alta qualità per addestrare Veo 2, permettendogli di apprendere meglio le dinamiche dei movimenti e delle interazioni fisiche. Al contrario, Sora potrebbe aver avuto accesso a un dataset meno diversificato o di qualità inferiore, influenzando le sue capacità generative.
È importante notare che Veo 2 è attualmente in fase di test con un gruppo selezionato di utenti, mentre Sora è già disponibile al pubblico. Pertanto, i confronti attuali potrebbero non rappresentare le versioni finali dei modelli. Tuttavia, questi test preliminari suggeriscono che Veo 2 potrebbe stabilire nuovi standard nella generazione di video basata sull’intelligenza artificiale.