Google ha annunciato oggi, come parte dei suoi aggiornamenti prodotto durante la conferenza Google I/O, l’introduzione delle prove virtuali nella Ricerca. A partire da oggi, questa funzionalità sarà disponibile per gli acquirenti negli Stati Uniti, rendendo l’esperienza di acquisto di abbigliamento online un po’ più semplice. Tuttavia, a differenza di molti brand che sovrappongono outfit digitali agli avatar virtuali degli acquirenti, Google utilizza l’intelligenza artificiale generativa per creare rappresentazioni altamente dettagliate di abbigliamento su modelli reali, con diverse forme del corpo e dimensioni.
Lilian Rincon, direttore senior della gestione dei prodotti di Google, ha spiegato in un post sul blog: “Il nostro nuovo modello di intelligenza artificiale generativa può prendere un’immagine di abbigliamento e riflettere accuratamente come si adatterebbe, si piegherebbe, aderirebbe, si allungherebbe e formerebbe rughe e ombre su una serie diversificata di modelli reali in varie pose. Abbiamo selezionato persone di diverse taglie, dalla XXS alla 4XL, che rappresentano diverse tonalità della pelle, forme del corpo, etnie e tipi di capelli”.
Molti strumenti di prova virtuale sul mercato creano avatar con indosso abiti tramite tecniche come la deformazione geometrica, che adatta l’immagine dell’abbigliamento all’immagine/avatar di una persona. Questo metodo funziona, ma spesso produce risultati non perfetti, con errori di adattamento evidenti, come pieghe non necessarie.
Per risolvere questo problema, Google ha sviluppato un nuovo modello di intelligenza artificiale basato sulla diffusione. La diffusione è un processo di addestramento in cui vengono aggiunti pixel extra a un’immagine finché non diventa irriconoscibile, per poi invertire il processo (o eliminare il rumore) fino a ricostruire l’immagine originale con una qualità perfetta. Il modello apprende da questo processo e gradualmente inizia a generare nuove immagini di alta qualità da immagini casuali e rumorose.
Nel caso delle prove virtuali di abbigliamento, Google ha utilizzato il suo Shopping Graph, un set di dati completo che include prodotti e venditori, per addestrare il modello su immagini di persone che rappresentano diverse forme del corpo e dimensioni. L’addestramento è stato effettuato utilizzando milioni di coppie di immagini, ciascuna mostrante una persona diversa che indossa lo stesso abito in due pose diverse.
Sfruttando questi dati e la tecnica della diffusione, il modello ha imparato a rendere gli abiti sulle immagini di persone in diverse pose e angolazioni, sia frontalmente che di lato. In questo modo, ogni volta che un utente esplora un outfit sulla Ricerca e seleziona la funzione di prova virtuale, può scegliere un modello con una corporatura e dimensioni simili per vedere come l’abbigliamento gli starebbe. L’abito e l’immagine del modello selezionati vengono utilizzati come dati di input.
Va sottolineato che al momento la funzione di prova virtuale è disponibile solo per i top da donna dei marchi di Google. Tuttavia, man mano che i dati di addestramento aumentano e il modello si espande, coprirà sempre più marchi e tipi di abbigliamento.
Google ha dichiarato che la prova virtuale per gli uomini sarà lanciata entro la fine dell’anno.