Oggi Meta ha annunciato che cercherà di identificare e contrassegnare i contenuti generati da intelligenza artificiale su Facebook, Instagram e Threads. Tuttavia, ha chiarito che non potrà identificare tutto il materiale creato da IA.
Questa decisione arriva dopo che dei video “deepfake” con immagini fittizie di Taylor Swift sono diventati virali su Twitter. Meta ha detto che sta lavorando per affrontare il problema delle immagini false e dei video manipolati, specialmente in vista delle elezioni americane del 2024.
Il presidente di Meta, Nick Clegg, ha spiegato che stiamo solo iniziando a capire come gestire questi contenuti generati dall’IA. Ha dichiarato che ci saranno discussioni sulla società riguardo a cosa dovrebbe essere fatto per identificare questi contenuti. Meta collaborerà con altre aziende e dialogherà con i governi e la società civile per affrontare questa sfida.
Meta ha anche affermato di seguire le migliori pratiche dell’industria e sta lavorando con organizzazioni come la Partnership on AI per stabilire standard comuni per l’identificazione di contenuti generati dall’IA. Stanno utilizzando marcatori invisibili come metadati IPTC e filigrane invisibili per contrassegnare le immagini generate dall’IA.
Quando saranno in grado di rilevare indicatori standard del settore per i contenuti generati dall’IA, Meta etichetterà queste immagini su Facebook, Instagram e Threads. Le immagini fotorealistiche create con Meta AI sono già etichettate per informare le persone che sono state generate dall’IA.
Meta sta anche sviluppando sistemi per rilevare automaticamente i contenuti generati dall’IA anche se non sono contrassegnati. Stanno cercando modi per rendere più difficile rimuovere o alterare le filigrane invisibili.
Questo annuncio di Meta si inserisce in un’onda di sforzi per identificare e contrassegnare contenuti generati dall’IA, come l’uso di filigrane digitali. Tuttavia, alcune filigrane possono essere eluse dai cattivi attori, e quindi potrebbero non essere una soluzione definitiva. Nonostante le sfide, le filigrane digitali invisibili sono considerate utili per tracciare l’origine e la provenienza dei contenuti generati dall’IA, un aspetto importante per la trasparenza e l’attribuzione.