Google ha recentemente modificato la sua politica pubblicitaria, introducendo nuove regole per gli annunci politici che utilizzano l’intelligenza artificiale generativa e i deepfake. Queste regole richiedono che tali annunci debbano chiaramente identificare la presenza di contenuti sintetici. Questa iniziativa mira a contrastare la diffusione di informazioni ingannevoli, specialmente durante le campagne politiche, dove l’uso di deepfake e altri media generati artificialmente sta diventando sempre più comune. Le nuove norme entreranno in vigore nel novembre 2023, un anno prima delle elezioni presidenziali degli Stati Uniti.
Secondo la nuova politica di Google, qualsiasi testo, audio o video generato da sistemi di intelligenza artificiale deve essere chiaramente etichettato come tale. Ci sono alcune eccezioni, come la correzione degli occhi rossi nelle foto, ma in generale, gli inserzionisti devono rendere evidente la natura sintetica dei contenuti. Inoltre, devono posizionare dichiarazioni di non responsabilità in modo ben visibile per garantire che gli utenti siano consapevoli della natura dei media.
Questa mossa è stata motivata dall’uso crescente dell’intelligenza artificiale generativa nelle pubblicità politiche, che spesso vengono utilizzate per diffamare gli avversari e generare indignazione. I deepfake che mostrano politici in situazioni false sono diventati sempre più comuni e possono minare la fiducia del pubblico anche quando non c’è una menzogna deliberata.
Google ha dichiarato: “A metà novembre 2023, aggiorneremo la nostra politica sui contenuti politici per richiedere che tutti gli inserzionisti elettorali verificati nelle regioni in cui è richiesta la verifica debbano indicare in modo visibile quando i loro annunci contengono contenuti sintetici che raffigurano in modo non autentico persone o eventi reali o dall’aspetto realistico”. Questa politica si applicherà a immagini, video e audio. Gli annunci che mostrano falsamente persone o eventi reali o che generano rappresentazioni realistiche di eventi che non sono mai accaduti saranno soggetti a queste regole.
L’obiettivo di Google è aumentare la trasparenza e la responsabilità nella pubblicità politica, soprattutto quando l’intelligenza artificiale viene utilizzata per manipolare le percezioni del pubblico. Tuttavia, l’applicazione efficace di queste regole potrebbe rivelarsi complessa, poiché la tecnologia può essere utilizzata in modi ingannevoli e la definizione di ciò che è accettabile è soggettiva.
Nonostante le sfide, questa politica riconosce l’importanza di regolamentare l’uso dell’intelligenza artificiale generativa nei contesti politici, e potrebbe essere un passo significativo verso una maggiore responsabilità nella pubblicità politica. È evidente che la tecnologia e il suo potenziale per l’inganno sono una preoccupazione reale, e le autorità stanno cercando di adottare misure adeguate per affrontare questa sfida.