La decisione di OpenAI di interrompere Sora, la piattaforma di generazione video basata su intelligenza artificiale, rappresenta uno degli sviluppi più significativi nel settore della generazione video automatica degli ultimi mesi. La notizia, anticipata da indiscrezioni e confermata da diverse fonti, indica che l’azienda non solo chiuderà l’app consumer, ma dismetterà anche l’API utilizzata dagli sviluppatori, segnando una vera e propria inversione strategica rispetto all’entusiasmo iniziale che aveva accompagnato il lancio del prodotto.
Sora era stata introdotta come una delle tecnologie più avanzate per la generazione di video da testo, capace di produrre clip realistiche a partire da semplici prompt descrittivi. Il sistema si basava su modelli generativi multimodali derivati da architetture di diffusione e transformer, permettendo la creazione di contenuti visivi complessi, con coerenza narrativa e continuità stilistica tra le scene. Queste capacità avevano rapidamente posizionato Sora come uno dei progetti più ambiziosi nel campo dei cosiddetti “world simulator”, ovvero modelli in grado di simulare dinamiche del mondo reale attraverso sequenze video sintetiche.
Il lancio dell’app standalone, avvenuto nel 2025, aveva trasformato questa tecnologia in un prodotto accessibile al pubblico, integrando funzionalità social e strumenti per condividere i video generati. L’app consentiva agli utenti di creare contenuti cinematografici realistici e creativi, spaziando da scene quotidiane a sequenze completamente immaginarie, con una qualità visiva che aveva attirato l’attenzione dell’intero settore tecnologico e dei media. Tuttavia, nonostante il forte impatto iniziale, il ciclo di vita del prodotto è stato sorprendentemente breve. OpenAI ha infatti deciso di interrompere Sora a pochi mesi dal rilascio della versione standalone, una scelta che molti osservatori hanno definito improvvisa, anche perché la piattaforma continuava a ricevere aggiornamenti fino a pochi giorni prima dell’annuncio della chiusura.
Le motivazioni alla base della dismissione non sono state esplicitate in modo completamente dettagliato, ma emergono con chiarezza alcune direttrici strategiche. Una delle principali riguarda la riallocazione delle risorse computazionali. I modelli di generazione video richiedono una potenza di calcolo significativamente superiore rispetto a quelli testuali o di immagini statiche, con costi operativi elevati e difficili da sostenere su larga scala. Di conseguenza, OpenAI avrebbe deciso di concentrarsi su progetti ritenuti più prioritari, come lo sviluppo di strumenti enterprise, l’espansione delle capacità multimodali integrate e la ricerca sulla simulazione del mondo reale, con applicazioni in robotica e automazione.
Un altro elemento rilevante riguarda la crescente competizione nel settore. Il mercato della generazione video AI si è rapidamente popolato di nuovi attori, inclusi grandi aziende tecnologiche e startup specializzate, aumentando la pressione su OpenAI per differenziare la propria offerta e focalizzarsi su prodotti con un impatto commerciale più immediato. In questo contesto, Sora, pur essendo tecnologicamente avanzata, rappresentava un progetto sperimentale con un ritorno economico ancora incerto, soprattutto rispetto a strumenti orientati alla produttività e al software per sviluppatori.
Accanto agli aspetti economici e strategici, la piattaforma aveva sollevato anche questioni normative e legali. La possibilità di generare video realistici aveva alimentato preoccupazioni legate alla creazione di deepfake, alla diffusione di contenuti fuorvianti e all’uso di materiale protetto da copyright. Alcune fonti riportano che la piattaforma fosse stata criticata per la facilità con cui si potevano generare contenuti con personaggi o stili riconducibili a opere esistenti, elemento che ha contribuito a un clima di attenzione crescente attorno alla governance della tecnologia.
Nonostante queste criticità, Sora aveva rappresentato un passo importante nell’evoluzione dei modelli generativi. La tecnologia alla base del sistema combinava la comprensione del linguaggio naturale con la generazione video in spazi latenti tridimensionali, consentendo una sintesi visiva coerente nel tempo. Questa architettura aveva permesso di superare i limiti dei modelli precedenti, spesso incapaci di mantenere coerenza tra i frame o di gestire scene complesse con più soggetti e interazioni dinamiche.
La chiusura della piattaforma non implica necessariamente l’abbandono definitivo della tecnologia. Al contrario, diversi analisti interpretano la decisione come un passaggio verso una integrazione più profonda delle capacità video all’interno di prodotti più ampi. In questo scenario, la generazione video potrebbe essere incorporata in strumenti multimodali, ambienti di simulazione o applicazioni professionali, anziché essere offerta come applicazione standalone. Questa evoluzione riflette una tendenza più generale nel settore dell’intelligenza artificiale, dove le funzionalità vengono progressivamente integrate in piattaforme unificate piuttosto che distribuite come prodotti separati.
