Immagine AI

Alibaba avrebbe raggiunto la vetta delle classifiche globali nel settore della generazione video AI grazie a un nuovo modello, mentre l’attenzione verso la piattaforma Sora di OpenAI sarebbe in diminuzione, anche a seguito di cambiamenti strategici e di utilizzo. Questo spostamento evidenzia come la competizione nel text-to-video stia diventando sempre più dinamica, con innovazioni che influenzano direttamente l’adozione e le metriche di performance.

Il modello sviluppato da Alibaba, indicato come HappyHorse-1.0, avrebbe raggiunto posizioni di vertice in classifiche indipendenti dedicate alla generazione video, posizionandosi tra le soluzioni più performanti del momento. La crescita sarebbe avvenuta in modo relativamente silenzioso, senza annunci particolarmente mediatici, ma sostenuta da miglioramenti tecnici nella coerenza visiva, nella qualità del movimento e nella capacità di interpretare prompt complessi. Questo approccio incrementale, basato su ottimizzazioni progressive, ha permesso al modello di guadagnare terreno nei benchmark utilizzati dalla comunità AI per valutare la qualità dei video generati.

Parallelamente, l’attenzione verso Sora si è ridotta, anche in relazione alla decisione di interrompere il progetto in tempi relativamente brevi. Il modello di OpenAI, introdotto come sistema text-to-video avanzato, era stato progettato per generare clip realistici a partire da descrizioni testuali, con una forte enfasi sulla simulazione coerente del mondo fisico. Tuttavia, la piattaforma è stata successivamente dismessa, con un processo di chiusura annunciato nel 2026, dopo una fase iniziale di diffusione e sperimentazione.

Il ridimensionamento dell’ecosistema Sora ha avuto effetti sull’intero mercato, aprendo spazio a nuovi attori e a modelli alternativi. L’interruzione del servizio, avvenuta in meno di un anno dalla sua introduzione, è stata collegata a scelte strategiche e a una riallocazione delle risorse verso altri progetti più prioritari. Questo cambiamento ha contribuito a una redistribuzione dell’interesse degli sviluppatori e dei creator verso piattaforme concorrenti.

L competizione tra modelli video AI si basa su parametri specifici, tra cui coerenza temporale, stabilità degli oggetti, qualità della fisica simulata e fedeltà ai prompt. I sistemi più recenti cercano di migliorare la continuità tra i frame, riducendo artefatti e deformazioni, e di gestire scene complesse con più soggetti in movimento. La capacità di mantenere proporzioni realistiche e movimenti naturali rappresenta uno degli indicatori principali nei benchmark del settore.

L’emergere di modelli alternativi indica anche una trasformazione nella struttura competitiva del mercato. Non si tratta più di un confronto limitato a pochi attori, ma di un ecosistema in cui aziende tecnologiche, startup e progetti open source competono sulla qualità e sull’efficienza computazionale. L’evoluzione della generazione video AI segue quindi una traiettoria simile a quella già osservata per i modelli linguistici, con iterazioni rapide e miglioramenti continui.

La crescita di soluzioni come quella di Alibaba suggerisce inoltre una maggiore attenzione verso modelli efficienti e facilmente integrabili in pipeline produttive. Le aziende stanno puntando non solo alla qualità visiva, ma anche alla scalabilità e ai costi di calcolo, elementi cruciali per l’adozione in ambito industriale e creativo. In questo contesto, il cambiamento delle classifiche non rappresenta solo una variazione tecnica, ma riflette una trasformazione più ampia dell’equilibrio competitivo nella generazione video automatizzata.

Di Fantasy