L’UE lancia i primi regolamenti sull’intelligenza artificiale
Il 21 aprile l’Unione Europea annuncerà il suo primo quadro normativo che disciplina l’uso dell’intelligenza artificiale. Le nuove normative vieteranno completamente i sistemi di apprendimento automatico “ad alto rischio” e introdurranno standard minimi per altre tecnologie di apprendimento automatico, imponendo sanzioni di 20 milioni di euro, o il 4% del fatturato aziendale, per le violazioni.
Un progetto di relazione della nuova legge, ottenuto da Politico, cercherebbe di promuovere l’innovazione e lo sviluppo dei sistemi di IA a vantaggio generale dell’economia e della società dell’UE, in settori quali la produzione, il miglioramento dell’efficienza energetica e la modellizzazione dei cambiamenti climatici; ma proibirebbe l’uso dell’apprendimento automatico nei sistemi di valutazione del credito, la valutazione automatizzata delle condanne penali e la valutazione dell’idoneità per le prestazioni di sicurezza sociale e le domande di asilo o visto, tra gli altri divieti che verranno rivelati in seguito.
La bozza afferma esplicitamente che i sistemi di punteggio sociale in stile cinese per individui e aziende sono in opposizione ai valori dell’Unione europea e saranno banditi dal regolamento, insieme alle tecnologie di “sorveglianza di massa” alimentate dall’intelligenza artificiale.
Supervisione normativa
In seguito alla nomina di un gruppo di esperti ad alto livello sull’intelligenza artificiale nel marzo del 2021, l’UE intende anche istituire un nuovo Comitato europeo per l’intelligenza artificiale, con ogni Stato membro rappresentato, insieme a un rappresentante della Commissione europea e dei dati dell’UE autorità di protezione.
Forse l’editto più ampio e potenzialmente controverso nella bozza è che vieta i sistemi che causano danni alle popolazioni dell’UE “manipolando il loro comportamento, opinioni o decisioni”, il che probabilmente includerebbe molte tecnologie che alimentano l’analisi del marketing commerciale e politico.
La normativa prevede eccezioni per la lotta alla criminalità grave, consentendo il dispiegamento prescritto di sistemi di riconoscimento facciale, entro i limiti di portata e durata di utilizzo.
Come per l’ ampia portata del GDPR, sembra che queste nuove normative possano essere abbastanza generali da incitare un “ effetto agghiacciante ” nelle aree in cui non vengono fornite rigide linee guida per l’uso dell’IA, con le aziende che rischiano di essere esposte dove il loro uso dell’apprendimento automatico cade. in una potenziale zona grigia all’interno delle normative.
Bias ai sensi dei nuovi regolamenti UE sull’IA
Tuttavia, la sfida di gran lunga più grande e il possibile pantano giuridico si presenta sotto forma di clausola del progetto di regolamento che le serie di dati non “incorporano pregiudizi intenzionali o non intenzionali” che possono facilitare la discriminazione.
La distorsione dei dati è uno degli aspetti più impegnativi nello sviluppo di sistemi di apprendimento automatico: difficile da dimostrare, difficile da affrontare e profondamente legato alle culture centrali degli organismi di raccolta dati. La questione pone sempre più gli enti di ricerca privati e statali in una corrente trasversale tra la necessità di rappresentare accuratamente gruppi distinti (praticamente l’obiettivo fondante della matematica computazionale e dell’analisi statistica empirica) e il potenziale di promulgare il profilo razziale e la demonizzazione culturale, tra le altre considerazioni .
Pertanto è probabile che i mercati extra-UE sperino che il nuovo regolamento fornisca almeno alcune aree specifiche di orientamento e una serie di definizioni applicabili a tale riguardo.
Resistenza esterna al regolamento UE sull’intelligenza artificiale
È probabile che il nuovo regolamento abbia un impatto profondo sulle ramificazioni legali dell’utilizzo del machine learning per analizzare i dati rivolti al pubblico, nonché su tali dati che sarà ancora possibile estrarre dagli utenti Web nell’era post-tracking che è attualmente introdotta da Apple , Firefox e ( in misura minore ), Chrome .
Potrebbe essere necessario definire chiaramente la giurisdizione, ad esempio nei casi in cui i giganti FAANG raccolgono i dati degli utenti in conformità con il GDPR, ma elaborano tali dati attraverso sistemi di apprendimento automatico al di fuori dell’Unione Europea. Non è chiaro se gli algoritmi derivati tramite tali sistemi possano essere applicati alle piattaforme all’interno dell’UE, e ancor meno chiaro come sia possibile provare tale applicazione.
Nel caso dell’utilizzo dell’IA per informare le decisioni di detenzione e condanne, una tendenza in crescita negli Stati Uniti, gli esperimenti occasionali del Regno Unito in questo settore sarebbero stati coperti dalle nuove normative se il paese non fosse uscito dall’Unione Europea.
Nel 2020 una bozza di memorandum della Casa Bianca sulla regolamentazione dell’IA ha affermato il caso americano di una bassa regolamentazione dell’IA, dichiarando che “ le agenzie federali devono evitare azioni normative o non normative che ostacolano inutilmente l’innovazione e la crescita dell’IA ” . Probabilmente, questo atteggiamento sembra sopravvivere all’amministrazione Trump in base alla quale è stato pubblicato il memorandum, ma riflette piuttosto la prossima abrasione tra gli Stati Uniti e l’UE sulla scia del nuovo regolamento.
Allo stesso modo, la “AI Roadmap” del Consiglio britannico per l’ IA esprime grande entusiasmo per i vantaggi economici dell’adozione dell’IA, ma una preoccupazione generale che le nuove normative non possano ostacolare questo progresso.
La prima vera legge per l’IA
L’impegno dell’UE per una posizione giuridica sull’IA è innovativo. Gli ultimi dieci anni sono stati caratterizzati da una tempesta di libri bianchi e risultati preliminari di comitati e raccomandazioni da parte dei governi di tutto il mondo, concentrati sull’etica dell’IA, con poche leggi effettive approvate.