Meta ha presentato un nuovo modello di intelligenza artificiale chiamato Segment Anything Model (SAM), che consente di individuare e separare gli oggetti presenti in un’immagine o in un video, anche se non sono stati precedentemente addestrati. Inoltre, Meta ha rilasciato il più grande set di dati di annotazioni di immagini mai realizzato per accompagnare il modello.
SAM è in grado di ritagliare un’immagine in oggetti separati e di sollevarli singolarmente. Inoltre, gli utenti possono cercare oggetti specifici utilizzando il testo, rendendo la ricerca di un oggetto come una camicia a righe bianche e rosse semplice e immediata. La tecnologia di “segmentazione” dell’IA suddivide i pixel in modo da assegnare un tag che compone un singolo oggetto.
Meta prevede un insieme ambizioso di potenziali usi per la segmentazione dell’IA, soprattutto grazie al suo enorme set di dati di identificazione delle immagini e alla capacità di espandersi su di esso. SAM potrebbe elaborare una pagina Web piena di immagini, analizzando i loro aspetti separati e il loro significato nel suo insieme.
In un post sul blog, Meta ha spiegato che l’obiettivo del progetto Segment Anything è di ridurre la necessità di competenze specifiche per attività di modellazione, calcolo di addestramento e annotazione di dati personalizzati per la segmentazione delle immagini. Il modello di prompt è stato addestrato su dati diversi e può adattarsi a compiti specifici, analogamente a come viene utilizzato il prompt nei modelli di elaborazione del linguaggio naturale.
Secondo il fondatore di Voicebot Bret Kinsella, la demo di SAM suggerisce che Meta vuole che gli sviluppatori si muovano in quella direzione. Sebbene non esista ancora un prodotto ufficiale, il set di dati e la demo dimostrano l’impegno di Meta nel campo dell’IA.
SAM potrebbe trovare numerosi usi in diversi campi, come l’AR/VR, l’estrazione di regioni di immagini per collage o editing video, il supporto allo studio scientifico degli eventi naturali sulla Terra o nello spazio, il tracciamento di animali o oggetti da studiare e molto altro ancora.
Le possibilità offerte dal modello di Segment Anything sono molte, e Meta si dice entusiasta dei molteplici casi d’uso che non ha ancora nemmeno immaginato.