I fallimenti del progetto di legge sull’intelligenza artificiale dell’UE
Una nuova critica legale alla bozza dell'”AI Act” dell’Unione europea solleva un’ampia gamma di critiche alla proposta di regolamento pubblicata ad aprile , concludendo che gran parte del documento è “cucito insieme” dalla regolamentazione dei consumatori degli anni ’80 scarsamente applicabile; che promuove effettivamente un ambiente di IA deregolamentato in Europa, piuttosto che portare il settore sotto una regolamentazione coerente; e – tra una sfilza di altre critiche – che le proposte tracciano un futuro quadro normativo per l’IA che ha “poco senso e impatto”.

Intitolato Demystifying the Draft EU Artificial Intelligence Act , la prestampa è una collaborazione tra ricercatori dell’UCL di Londra e della Radboud University di Nimega.

Il documento si aggiunge a un crescente corpus di opinioni negative sull’attuazione proposta (piuttosto che sull’intento tanto ammirato) di un quadro normativo di IA, inclusa la tesi di aprile di uno dei contributori del progetto di regolamento secondo cui le linee guida proposte sono “tiepide, miope e volutamente vago’, che ha caratterizzato il documento della Commissione Europea come fautore della ‘falsa etica’.

Sistemi di intelligenza artificiale manipolativa
Il nuovo documento sostiene che le restrizioni proposte dall’AI Act sui “sistemi manipolativi” sono ostacolate da una definizione vaga e persino contraddittoria di “danno”, commentando che “[un] cinico potrebbe ritenere che la Commissione sia più interessata al valore retorico dei divieti che al valore pratico”. effetto’.

Il progetto di regolamento delinea due presunte pratiche vietate:

a) l’immissione sul mercato, la messa in servizio o l’uso di un sistema di intelligenza artificiale che utilizza tecniche subliminali al di là della coscienza di una persona al fine di distorcere materialmente il comportamento di una persona in un modo che causi o possa causare tale persona o un’altra persona fisica o danno psicologico;

(b) l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutti una delle vulnerabilità di un gruppo specifico di persone dovute alla loro età, disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona appartenenti a quel gruppo in un modo che causi o sia suscettibile di causare a quella persona o ad un’altra persona un danno fisico o psicologico;

I ricercatori sostengono che queste restrizioni non riguardano se i servizi o il software di un fornitore di intelligenza artificiale riescono o meno a perseguire i propri obiettivi, ma solo se l’utente finale subisce un “danno” nel processo. Aggiungono che la definizione di danno della bozza è fatalmente limitata ai singoli utenti, piuttosto che al tipo di danno collettivo o sociale che può essere ragionevolmente dedotto da una serie di controversie basate sull’intelligenza artificiale degli ultimi anni, come la debacle di Cambridge Analytica.

Il documento osserva che ‘Nella vita reale, il danno può accumularsi senza che un singolo evento faccia scattare una soglia di gravità, rendendo difficile la prova’.

Sistemi di intelligenza artificiale dannosi consentiti, ma non per il consumo nell’UE
L’AI Act propone di mettere al bando i sistemi biometrici “in tempo reale” negli spazi pubblici da parte delle forze dell’ordine. Sebbene un certo scetticismo pubblico sia stato rivolto alle eccezioni che le proposte fanno per l’antiterrorismo, il traffico di bambini e il perseguimento di un mandato d’arresto europeo, i ricercatori osservano anche che nulla impedirebbe ai fornitori di vendere sistemi biometrici contrari a regimi oppressivi.

Il documento osserva che questa è già una pratica storica, come rivelato nel rapporto del 2020 di Amnesty International.

Afferma inoltre che la specifica dell’AI Act del sistema biometrico “in tempo reale” è arbitraria ed esclude i sistemi analitici off-line, come l’elaborazione successiva di filmati da eventi di protesta.

Inoltre, si nota che le proposte non offrono alcun meccanismo per limitare i sistemi biometrici che non sono legati alle forze dell’ordine, che invece sono pigramente rinviati al GDPR; e che il GDPR stesso “richiede un consenso individuale di alta qualità per ogni persona sottoposta a scansione che è effettivamente impossibile da soddisfare”.

Anche la formulazione di questa sezione dell’AI Act è oggetto di critiche da parte dei ricercatori. Il progetto stabilisce che sarà necessaria la pre-autorizzazione per l’implementazione di sistemi biometrici per l'”uso individuale” di tali sistemi da parte delle autorità competenti, ma non chiarisce cosa significhi “uso individuale” in questo contesto. Il documento rileva che i warrant controversi possono essere tematici e riguardare vaste organizzazioni, scopi e luoghi.

Inoltre, il progetto di regolamento non prevede un meccanismo di trasparenza per il numero e il tipo di autorizzazioni rilasciate, rendendo problematico il controllo pubblico.

Regolamento di esternalizzazione a “standard armonizzati”
La ricerca afferma che le entità più importanti nell’AI Act in realtà non sono menzionate nemmeno una volta nei progetti di regolamento: CEN (Comitato europeo di normalizzazione) e CENELEC (Comitato europeo di normalizzazione elettrotecnica) – due dei tre organismi europei di normalizzazione (ESO) che la Commissione europea può dare mandato di formulare standard armonizzati, che in molti casi rimarrebbero i quadri normativi di riferimento per determinati tipi di servizi e implementazioni di IA.

Ciò significa effettivamente che i produttori di IA possono scegliere di seguire gli standard di quelle che sono in effetti normative concorrenti piuttosto che complementari, invece di soddisfare i requisiti essenziali delineati nella legge sull’IA. Ciò consente ai fornitori di interpretare più liberamente i regolamenti proposti quando entreranno in vigore nel 2024-5.

I ricercatori dell’articolo ritengono inoltre che gli anni intercorsi di lobby industriale tra gli organismi di normazione ridefiniranno in modo considerevole questi “standard essenziali” e suggeriscono che i regolamenti “ideali” dovrebbero iniziare a un livello etico più elevato e chiarezza legislativa, se non altro per tenere conto di questo inevitabile processo di logoramento.

Legittimazione della fallacia dei sistemi di riconoscimento delle emozioni
L’AI Act prevede disposizioni contro l’implementazione di sistemi di riconoscimento e categorizzazione delle emozioni, strutture che potrebbero non identificare necessariamente un individuo, ma pretendono di capire cosa provano o di essere in grado di classificarli in termini di genere, etnia e vari altri significanti economici e sociali.

I ricercatori sostengono che questa clausola è inutile, dal momento che il GDPR obbliga già i fornitori di tali sistemi a fornire agli utenti informazioni chiare sull’uso di tali sistemi, in modo che gli utenti possano rinunciare (che potrebbe comportare il non utilizzo di un servizio online, o il non entrare un’area in cui si annuncia l’esistenza di tali sistemi).

Ancora più importante, il documento afferma che questa clausola legittima una tecnologia sfatata e continua a caratterizzare i sistemi di riconoscimento delle emozioni in stile FACS alla luce della vergognosa storia della frenologia e di altri approcci quasi sciamanici alla categorizzazione sociale dalla prima era industriale.

“Coloro che affermano di rilevare le emozioni usano tassonomie troppo semplificate e discutibili; assumere erroneamente l’universalità tra culture e contesti; e rischiare ‘[riportarci] al passato frenologico’ di analizzare i tratti caratteriali dalle strutture facciali . Le disposizioni della legge sul riconoscimento delle emozioni e la categorizzazione biometrica sembrano insufficienti per mitigare i rischi.’

Una proposta troppo modesta
Oltre a questi, i ricercatori affrontano altre carenze percepite nell’AI Act per quanto riguarda la regolamentazione dei deepfake , la mancanza di supervisione per le emissioni di carbonio dei sistemi di intelligenza artificiale, la duplicazione della supervisione normativa con altri quadri e la definizione inadeguata di entità legali perseguibili.

Esortano i legislatori e gli attivisti civili ad agire per porre rimedio ai problemi individuati, e notano inoltre che anche la loro ampia decostruzione delle bozze di regolamento ha dovuto omettere molte altre aree di preoccupazione, a causa della mancanza di spazio.

Tuttavia, il documento plaude al tentativo d’avanguardia della legge di introdurre un sistema di regolamentazione orizzontale dei sistemi di IA, citando i suoi numerosi “elementi sensibili”, come la creazione di una gerarchia dei livelli di valutazione del rischio, l’impegno a introdurre divieti e la proposta di una banca dati pubblica di sistemi a cui i fornitori dovrebbero contribuire per ottenere la legittimità europea, pur rilevando i dilemmi legali che questo ulteriore requisito potrebbe sollevare.

Martin Anderson da unite.ai

Di ihal