Mentre OpenAI continua a promuovere la viralità con i contenuti prodotti da Sora, la sua piattaforma video AI ancora da lanciare, i concorrenti si stanno impegnando al massimo per spingere l’asticella con le rispettive offerte. Solo pochi giorni fa, Pika Labs ha introdotto la sincronizzazione labiale nel suo prodotto. E ora, una startup di video AI completamente nuova, “Haiper”, è emersa di nascosto con 13,8 milioni di dollari in finanziamenti iniziali da Octopus Ventures.
Secondo quanto riportato, Haiper, fondata da ex ricercatori di Deepmind Yishu Miao (CEO) di Google e Ziyu Wang, offre una piattaforma che consente agli utenti di generare video di alta qualità da messaggi di testo o animare immagini esistenti. La piattaforma ha il proprio modello di base visiva sotto il cofano e adotta gli strumenti video AI esistenti sul mercato come Runway e Pika Labs. Tuttavia, dai primi test, sembra ancora essere indietro rispetto a ciò che OpenAI ha da offrire con Sora.
Si prevede che Haiper utilizzerà i finanziamenti per ampliare la propria infrastruttura e migliorare il proprio prodotto, costruendo infine un’AGI in grado di interiorizzare e riflettere una comprensione del mondo di tipo umano.
Proprio come Runway e Pika, Haiper, nella sua forma attuale, fornisce agli utenti una piattaforma web, dove ottengono un’interfaccia semplice per inserire un messaggio di testo di loro scelta per iniziare a creare video AI di qualsiasi cosa possano immaginare. La piattaforma attualmente offre strumenti per generare video sia in qualità SD che HD, sebbene la durata dei contenuti HD rimanga limitata a due secondi mentre l’SD può arrivare fino a quattro secondi. Lo strumento video di qualità inferiore include anche la possibilità di controllare i livelli di movimento.
Durante i test, l’output dei video HD è risultato più coerente, probabilmente a causa della durata inferiore, mentre i video di qualità inferiore prodotti erano spesso sfocati con il soggetto che cambiava forma, dimensione e colore, soprattutto nei casi di livelli più alti di movimento. Inoltre, non esiste alcuna opzione per estendere le generazioni, come visto in Runway, anche se la società afferma di voler lanciare presto questa funzionalità.
Oltre alle funzionalità di conversione del testo in video, la piattaforma fornisce anche strumenti per consentire agli utenti di caricare e animare immagini esistenti o ridipingere un video, modificandone lo stile, il colore di sfondo, gli elementi o l’oggetto con un messaggio di testo.
Haiper afferma che la piattaforma e il modello di base visiva proprietario su cui si fonda possono soddisfare un’ampia gamma di casi d’uso, dalle singole applicazioni come i contenuti per i social media agli usi incentrati sul business come la generazione di contenuti per uno studio. Tuttavia, la società non ha condiviso nulla sul piano di commercializzazione e continua a offrire la tecnologia gratuitamente.
Con questo finanziamento, Haiper prevede di evolvere la propria infrastruttura e il proprio prodotto con l’obiettivo finale di costruire un’intelligenza generale artificiale (AGI) con piene capacità di percezione. L’investimento porta il capitale totale raccolto dalla società a 19,2 milioni di dollari.
Nei prossimi mesi, Haiper prevede di sfruttare il feedback degli utenti e rilasciare una serie di grandi modelli addestrati che miglioreranno la qualità degli output video AI, colmando potenzialmente il divario tra le offerte rivali disponibili sul mercato.
Man mano che l’azienda amplia questo lavoro, cercherà di migliorare la comprensione del mondo da parte dei modelli, creando essenzialmente un’AGI in grado di replicare gli elementi emotivi e fisici della realtà, coprendo i più piccoli aspetti visivi, tra cui luce, movimento, consistenza e interazioni tra gli oggetti. – per creare contenuti realistici.
Haiper prevede che la sua tecnologia andrà addirittura oltre la creazione di contenuti e avrà un impatto in altri settori, tra cui la robotica e i trasporti, grazie alle sue capacità percettive di prossima generazione.