Twelve Labs, specialista nell’intelligenza artificiale per la comprensione delle immagini, ha recentemente annunciato che fornirà due dei suoi modelli multimodali, “Marengo” e “Pegasus”, al servizio Amazon Bedrock di Amazon Web Services (AWS). Questo annuncio, fatto dal CEO Jaeseong Lee, segna un importante passo nella capacità di sfruttare e comprendere i contenuti visivi tramite IA, offrendo nuove opportunità per gli sviluppatori che utilizzano Amazon Bedrock.
Amazon Bedrock è un servizio che consente agli sviluppatori di accedere a modelli di intelligenza artificiale tramite una singola API, offrendo così una piattaforma semplificata per integrare soluzioni AI in vari ambienti aziendali. Il servizio fornisce l’accesso a modelli di base sviluppati da aziende leader nel settore, tra cui Amazon, Meta, Anthropic, Mistral AI, DeepSec e StabilityAI, permettendo alle aziende di usufruire delle più recenti tecnologie in modo scalabile e sicuro.
I modelli di Twelve Labs, specializzati nella comprensione delle immagini, sono progettati per elaborare enormi quantità di dati visivi, come video e immagini, e offrire funzionalità avanzate di ricerca, analisi e generazione di approfondimenti sul loro contenuto. In particolare, questi modelli sono in grado di massimizzare l’utilizzo dei dati video, un formato che tradizionalmente è stato difficile da sfruttare pienamente. Grazie alla possibilità di analizzare e comprendere in dettaglio oggetti, azioni e suoni di sottofondo all’interno dei video utilizzando linguaggio naturale, le aziende possono ora accedere a funzionalità sofisticate senza la necessità di esperti in IA.
Con Amazon Bedrock, i clienti avranno un controllo completo sui propri dati, la sicurezza a livello aziendale e un miglior controllo dei costi. I modelli di Twelve Labs permetteranno di applicare funzionalità come la ricerca video in linguaggio naturale, la classificazione delle scene, il riepilogo dei contenuti e l’estrazione di informazioni. Queste capacità consentiranno anche la creazione di funzioni avanzate di comprensione video, consentendo alle aziende di espandere la loro capacità di analizzare librerie video di grandi dimensioni in modo coerente e sicuro.
Jaeseong Lee, CEO di Twelve Labs, ha sottolineato l’importanza di questa tecnologia, affermando che i video rappresentano circa l’80% dei dati a livello globale, ma la maggior parte di essi non è ricercabile o non viene utilizzata al meglio. Grazie ai modelli di Twelve Labs, ora i clienti possono trovare e analizzare istantaneamente il momento preciso che cercano in qualsiasi libreria di contenuti video, che si tratti di filmati risalenti a dieci anni fa o a pochi minuti fa, il tutto in meno di un secondo.
Con questa innovazione, Twelve Labs sta aprendo nuove strade per la ricerca e l’analisi dei contenuti video, rendendo più facile per le aziende accedere a informazioni preziose nascoste nei dati visivi.