Un nuovo video, intitolato “Mirror of Reflection”, presenta un deepfake dell’esperta di intelligenza artificiale Nina Schick, e illustra come i deepfake possano diffondere informazioni false. Il video è stato prodotto in collaborazione con Revel.ai, uno sviluppatore di media sintetici, e Truepic, un fornitore di sicurezza dell’identità digitale.

Il video mostra come i deepfake possano ingannare le persone con immagini iperrealistiche, e presenta una firma digitale trasparente che identifica se un video utilizza media sintetici. Questa firma crittografica non può essere alterata o rimossa senza lasciare prove. I creatori di contenuti interessati ai media sintetici possono utilizzare la filigrana virtuale per garantire che non ci sia confusione e che il contenuto sia autentico.

Le creazioni di deepfake stanno diventando sempre più realistiche e virali sui social media. La clonazione vocale può rendere i deepfake audio abbastanza buoni da ingannare alcuni test biometrici e le orecchie inesperte di una folla di concerti. Tuttavia, ci sono progressi nella creazione di filigrane audio per contrassegnare il parlato generato dall’IA senza compromettere la qualità del suono.

Bob de Jong, il direttore creativo di Revel.ai, ha dichiarato che se usata in modo etico e autenticato, l’intelligenza artificiale è uno strumento straordinario per la narrazione e la libertà creativa nel settore dell’intrattenimento. La collaborazione tra Revel.ai, Truepic e Nina Schick evidenzia che è possibile un Internet più autentico contrassegnando in modo trasparente se il contenuto è umano o generato dal computer.

Questo progresso apre la possibilità ai contenuti generati dall’intelligenza artificiale di prosperare, mitigando al contempo l’impatto potenzialmente devastante sul nostro ecosistema di informazioni e sulla società in generale.

Di Fantasy