Le proposte di regolamento Deepfake europee e britanniche sono sorprendentemente limitate
 Di Martin Anderson da unite.ai

Analisi Per gli attivisti che sperano che il 2022 possa essere l’anno in cui le immagini contraffatte rientrano in un ambito legale più rigoroso, i primi indicatori non sono promettenti.

Giovedì scorso il Parlamento Europeo ha ratificato gli emendamenti al Digital Services Act ( DSA , che entrerà in vigore nel 2023), in merito alla diffusione dei deepfake . Le modifiche riguardano i deepfake in due sezioni, ciascuna direttamente correlata alla pubblicità online: l’emendamento 1709 relativo all’articolo 30 e un relativo emendamento all’articolo 63.

La prima propone un articolo 30a del tutto nuovo , intitolato Deep fakes , che recita:

“Quando una piattaforma online molto grande viene a conoscenza che un contenuto è un’immagine, un contenuto audio o video generato o manipolato che somiglia in modo apprezzabile a persone, oggetti, luoghi o altre entità o eventi esistenti e appare falsamente a una persona come autentico o veritiero (deep fake), il fornitore etichetta il contenuto in modo tale da informare che il contenuto non è autentico e che è chiaramente visibile per il destinatario dei servizi.’

La seconda aggiunge testo all’attuale articolo 63, che si occupa principalmente di aumentare la trasparenza delle grandi piattaforme pubblicitarie. Il testo pertinente recita:

“Inoltre, piattaforme online molto grandi dovrebbero etichettare tutti i video, audio o altri file falsi noti”.

In effetti, la legislazione sembra prepararsi alla pratica crescente dei “legittimi deepfake”, in cui è stato concesso il permesso e sono stati assicurati i diritti per lo scambio di volti in materiale promozionale o pubblicitario, come l’ uso autorizzato dell’identità di Bruce Willis da parte della società di telecomunicazioni russa Telefon in un recente campagna pubblicitaria.

Esitazione a legiferare
Il DSA, finora, non sembra affrontare le preoccupazioni degli attivisti sull’uso delle tecniche di deepfake come sono più comunemente utilizzate : per ritrasmettere video pornografici. Né affronta la misura, se del caso, in cui l’ uso in sospeso di deepfake nei film e in televisione dovrà essere negato agli spettatori allo stesso modo in cui lo sarà il deepfake nella pubblicità, almeno nell’UE, dal 2023.

Il processo di ratifica del DSA passa ora alla negoziazione con gli Stati membri dell’UE, insieme al più ampio campo di applicazione del Digital Markets Act ( DMA ).

La relazione di Europol del dicembre 2020 sugli usi e gli abusi dell’intelligenza artificiale ha affermato che sarebbe un errore per l’UE affrontare le attuali tecnologie deepfake specifiche (come DeepFaceLive ), il che potrebbe portare il diritto dell’UE costantemente al passo con il quadro o il metodo più recenti .

Il rapporto affermava:

“In particolare, tali politiche dovrebbero essere indipendenti dalla tecnologia per essere efficaci a lungo termine ed evitare di doverle rivedere e sostituire regolarmente man mano che la tecnologia alla base della creazione e dell’abuso di deepfake si evolve.

“Tuttavia, tali misure dovrebbero anche evitare di ostacolare le applicazioni positive dei GAN”.

L’osservazione conclusiva nella citazione di cui sopra, in merito alle Reti Adversarial Generative (GAN) caratterizza ampiamente l’esitazione europea e nordamericana ad applicare leggi che potrebbero ostacolare un settore della ricerca sull’IA emergente già percepito come in ritardo rispetto all’Asia (le cui nazioni più didattiche sono state in grado di digiunare -tracciare la legislazione sui deepfake ).

Ad esempio, un rapporto del 2018 del Comitato ristretto sull’intelligenza artificiale della Camera dei Lord del Regno Unito sottolinea più volte il rischio di consentire alla timidezza di frenare lo sviluppo dell’IA nella nazione, esemplificato nel titolo: AI nel Regno Unito: pronto, disponibile e capace? . Lo scorso aprile, la Gran Bretagna è diventata anche il primo paese a dare il via libera al dispiegamento di auto a guida autonoma sulle autostrade.

L’America non è meno avida; negli Stati Uniti, The Brookings Institution ha sollecitato la necessità di una maggiore legislazione per l’IA negli Stati Uniti, criticando i legislatori per il loro punto di vista “aspetta e vedi” sulle ramificazioni delle tecnologie di apprendimento automatico

Oltre all’approccio insulso della DSA nell’affrontare le preoccupazioni sociali (piuttosto che politiche) relative ai deepfake, il quadro normativo proposto dall’UE per l’IA , pubblicato nell’aprile 2021, è stato oggetto di pronta critica per la sua stessa evasione dell’argomento.

Scarso regolamento Deepfake nel Regno Unito
Come ulteriore delusione per gli attivisti anti-deepfake come l’autrice Helen Mort, che ha fatto una campagna prominente per la nuova legislazione del Regno Unito nel 2021 dopo essere stata raffigurata in modo non consensuale in video pornografici deepfake, un rapporto pubblicato oggi dal Parlamento del Regno Unito per il digitale, la cultura, i media e lo sport Il comitato critica il governo britannico per non aver affrontato i deepfake nella bozza di legge sulla sicurezza online .

Citando l’attuale riparazione legale del progetto di legge contro gli abusi di deepfake come “poco chiara e poco pratica”, il rapporto suggerisce che la legislazione proposta non fa nulla per affrontare lo stato “legale ma dannoso” dei video pornografici assistiti dall’IA e delle tecniche di manipolazione delle immagini:

“[Noi] raccomandiamo che il governo affronti in modo proattivo tipi di contenuti tecnicamente legali, come parti insidiose di sequenze di abusi sui minori come il breadcrumbing e tipi di violenza online contro donne e ragazze come la “nudificazione” tecnologica delle donne e la pornografia deepfake , inserendoli nel campo di applicazione o attraverso il diritto primario o come tipi di contenuti nocivi coperti dagli obblighi di diligenza».

L’attuale legge applicabile nel Regno Unito si limita alla diffusione di immagini “reali”, come i casi di revenge porn, in cui, ad esempio, materiale esplicito riservato e privato è condiviso pubblicamente da un ex partner. Se un persecutore esegue e pubblicizza materiale deepfake che sovrappone l’identità del suo “bersaglio” a contenuti pornografici, può essere perseguito solo se molesta direttamente il bersaglio indirizzandogli il materiale o in base alla legislazione relativa al copyright.

Nel primo caso, la facilità con cui i nuovi contenuti deepfake prendono piede e gli spettatori quasi inevitabilmente significano che la vittima sarà informata da amici interessati o terze parti non correlate, piuttosto che dalla persona che li ha falsificati, consentendo alla viralità di tale materiale di proteggere il deepfaker, il cui lavoro “raggiunge ancora l’obiettivo”.

In quest’ultimo caso, l’azione penale sarebbe probabilmente fattibile solo se un video pornografico di terze parti non documentato (in cui l’identità della vittima viene successivamente sovrapposta) è prodotto professionalmente e legittimamente protetto dal dominio del copyright del Regno Unito (anche se un video adatto può provenire liberamente da qualsiasi giurisdizione nel mondo). Un video “amatoriale” di qualsiasi giurisdizione manca di un chiaro stato di copyright e un video su misura in cui il deepfaker ha girato espressamente per sovrapporre la vittima è (ironia della sorte) esso stesso protetto dalle leggi sul copyright, purché sia ​​conforme ad altre leggi.

Dietro la curva
Nel dicembre del 2021 la Law Commission del Regno Unito ha proposto di estendere le leggi sull’incitamento all’odio per coprire l’ostilità basata sul sesso, ma non ha proposto l’inclusione di deepfake in questa categoria, nonostante i molteplici esempi di tale utilizzo in tutto il mondo ( soprattutto in India ) della tecnologia essere usato come arma contro donne politiche e attiviste. Le donne sono in maggioranza il bersaglio di contenuti illeciti deepfake, sia che i motivi dei falsi siano apertamente sociali (cioè l’intenzione di umiliare, de-piattare e privare di potere) o semplicemente di natura pruriginosa (cioè pornografica).

Nel marzo del 2021 la National Law Review, con sede in Illinois , ha ritenuto che il quadro giuridico del Regno Unito fosse “del tutto inadeguato al momento per affrontare i deepfake” e persino privo di meccanismi legali di base che proteggano la somiglianza di una persona.

Leggi Deepfake negli Stati Uniti
Al contrario, gli Stati Uniti proteggono in una certa misura il “diritto di pubblicità” dei propri cittadini, sebbene non a livello federale (al momento, tali statuti esistono in circa la metà degli stati degli Stati Uniti, con meccanismi legali estremamente variabili).

Nonostante un miglioramento rispetto alle prestazioni del Regno Unito nella legislazione deepfake, gli Stati Uniti possono vantare solo una copertura sporadica, per stato, e sembrano determinati ad affrontare il potenziale di manipolazione politica della tecnologia prima di aggirare, alla fine, il suo impatto sui privati.

Nel 2019 lo Stato del Texas ha messo fuori legge la creazione o la diffusione di deepfake politici , con il Texas Senate Bill 751 ( SB751 ), omettendo qualsiasi dichiarazione sulla pornografia deepfake. Lo stesso anno, lo Stato della Virginia ha aggiunto un emendamento a una legge esistente riguardante la diffusione o la vendita illegale di immagini di un altro , aggiungendo il termine ampiamente comprensivo di “immagine fissa o video creata in modo falso” .

Nel 2020 lo Stato della California ha emanato la California Assembly Bill 602 ( AB 602 ) che vieta la generazione o la diffusione di deepfake pornografici. Il disegno di legge non ha una clausola di decadenza, ma ha una prescrizione di tre anni ed è accompagnato da una clausola separata che copre i deepfake politici.

Alla fine del 2020 lo Stato di New York ha approvato il disegno di legge S5959D del senato , che non solo vieta la creazione e/o la ripubblicazione di deepfake pornografici, ma protegge attivamente il diritto di pubblicità di un utente in relazione a una somiglianza generata dal computer attraverso deepfake, CGI, o qualsiasi altro mezzo, anche dopo la morte (se la persona in questione era residente a New York al momento della morte).

Infine, lo Stato del Maryland ha modificato le sue leggi sulla pornografia infantile per comprendere e criminalizzare l’uso di deepfake, sebbene non affronti l’impatto dei deepfake su obiettivi per adulti.

In attesa di “DeepfakeGate”
La storia indica che il danno che le nuove tecnologie possono causare deve diventare personale per una nazione al fine di accelerare la sua risposta legislativa. La recentissima morte di un’adolescente in Egitto , presumibilmente ricattata con pornografia deepfake di se stessa, ha ricevuto una copertura limitata dai media occidentali*, mentre le rivelazioni sul furto di 35 milioni di dollari nell’Emirato Arabo Unito, venuto alla luce nel 2021 , rappresentano anche un “evento distante” che non è in grado di accelerare il senato o accendere un fuoco sotto i 45 stati rimanenti che non hanno ancora emanato una legislazione deepfake.

Se gli Stati Uniti adottassero un fronte più unito sull’abuso della tecnologia deepfake, una legislazione diffusa influirebbe probabilmente sull’aspetto della governance delle telecomunicazioni e dell’infrastruttura e dello storage dei dati, portando a rapidi cambiamenti politici di recupero imposti ai suoi partner commerciali in tutto il mondo. Il fatto che l’adozione da parte dell’Europa del GDPR alla fine non sia “passata” alla politica di raccolta e conservazione dei dati del Nord America non significa che l’UE non potrebbe allo stesso modo ottenere un effetto leva sulle nazioni meno conformi con cui commercia, se mai dovesse posizione legislativa più impegnata sulla generazione, archiviazione e conservazione della pornografia deepfake.

Ma prima deve succedere qualcosa a “ground zero”, in uno di questi gruppi di paesi leader; e lo stiamo ancora aspettando: un colossale bottino darknet di CSAM da parte delle autorità; un’importante rapina che utilizza tecnologie deepfake basate su audio e/o video per indurre un direttore di una società americana a indirizzare in modo errato una grande quantità di denaro; o un equivalente americano del crescente uso di deepfake per vittimizzare le donne in paesi più patriarcali (se, in effetti, la cultura statunitense è davvero attrezzata per rispecchiare questi eventi, il che è discutibile). Queste sono cose difficili da desiderare e cose buone da evitare con qualsiasi altro metodo che non infilare la testa nella sabbia o aspettare un evento “incendiario”.

Un problema centrale, che l’UE sta attualmente aggirando indirizzando la sua abilità legislativa alle società pubblicitarie che vogliono promuovere i loro deepfake intelligenti e legittimi, è che i deepfake rimangono difficili da individuare algoritmicamente ; la maggior parte dei metodi di rilevamento che emergono su arXiv ogni mese dipendono dal watermarking, dalla verifica basata su blockchain o dalla modifica in qualche modo dell’intera infrastruttura che attualmente utilizziamo per consumare liberamente i video, soluzioni che implicano una revisione legale radicale del concetto di video come proxy per la “verità”. Il resto è regolarmente superato dai continui progressi nei popolari repository open source deepfake.

Un ulteriore problema è che le principali nazioni occidentali hanno ragione, in un certo senso, a non offrire una reazione istintiva a un singolo filone problematico in una serie di nuove tecnologie di intelligenza artificiale, molte delle quali promettono enormi benefici alla società e all’industria, e molti dei quali potrebbero essere influenzati negativamente in qualche modo se la proibizione e la regolamentazione dei sistemi di sintesi delle immagini iniziassero sul serio, in risposta a un evento importante e al conseguente clamore.

Tuttavia, potrebbe essere una buona idea almeno accelerare il cammino lento e talvolta senza scopo che stiamo intraprendendo verso la regolamentazione dei deepfake e affrontare i potenziali problemi nel mezzo e alle nostre condizioni, invece di essere costretti da eventi successivi in ​​una risposta meno considerata.

Di ihal