L’UE non dovrebbe regolamentare l’intelligenza artificiale come una tecnologia separata
Un rapporto della recente conferenza su Computer, Privacy e Protezione dei dati ha suggerito che la Commissione europea sta “considerando la possibilità di legiferare per l’Intelligenza Artificiale”. Karolina Mojzesowicz, Vice Capo, Unità per la protezione dei dati presso la Commissione Europea, ha affermato che la Commissione è ” valutare se i quadri nazionali e dell’UE sono adatti allo scopo per le nuove sfide. ” La Commissione sta esplorando, ad esempio, se specificare” quanto è grande un margine di errore accettabile nelle decisioni automatizzate e nell’apprendimento automatico “.
Il veicolo per questo sforzo normativo sembra essere il progetto di linee guida etiche sviluppato da un gruppo di esperti di alto livello. Il periodo di commento su questo progetto è stato chiuso il 1 ° febbraio e una relazione finale è prevista per marzo. Questo rapporto sarà enormemente influente nell’impostazione del tono e della direzione per la regolamentazione dell’intelligenza artificiale globale (AI).
L’UE non è la sola a mirare a stabilire linee guida per l’intelligenza artificiale. L’OCSE sta lavorando a un progetto simile. Le riunioni del G7 e del G20 hanno presentato proposte dal Giappone e altre per un codice di condotta internazionale per lo sviluppo e l’uso dell’IA.
Anche l’industria è stata coinvolta in questo progetto. Le associazioni del settore industriale SIIA e ITI hanno entrambe rilasciato delle linee guida proposte per l’IA. Le singole società, tra cui Google, Microsoft e Facebook, hanno sviluppato i propri standard pubblici per il loro utilizzo dei sistemi AI.
Qual è il ruolo corretto di queste linee guida per l’intelligenza artificiale? L’unico approccio ragionevole non è quello di regolare l’intelligenza artificiale come tale, ma di vedere dove l’intelligenza artificiale solleva nuovi problemi in particolari contesti che richiedono nuove regole specifiche per il dominio.
POTREBBE PIACERTI ANCHE
Il modo migliore di pensare alle linee guida generali per l’intelligenza artificiale è come strumenti di valutazione, liste di controllo per sviluppatori e utenti per garantire che i loro sistemi rimangano all’interno di adeguati guardrail etici. I principi della SIIA, ad esempio, chiedono alle aziende di valutare se le loro pratiche di analisi dei dati e dei dati siano coerenti con i diritti umani universali, se tendono a promuovere il benessere umano e se aiutano le persone a sviluppare e mantenere tratti caratteriali virtuosi. Le aziende dovrebbero anche avere politiche e procedure per garantire trasparenza, spiegabilità ed equità. In particolare, nei casi in cui i sistemi di intelligenza artificiale sono utilizzati per decisioni consequenziali che riguardano aspetti importanti della vita di una persona, le società dovrebbero condurre analisi di impatto disparate per garantire che tali usi non siano ingiustificati,
Ma questi principi generali non forniscono realmente indicazioni su come le aziende dovrebbero comportarsi in situazioni concrete. Prendi trasparenza, per esempio. Rivelare il codice sorgente di un programma che valuta gli insegnanti della scuola pubblica per un lavoro o valuta le prove del crimine per le indicazioni di una corrispondenza del DNA potrebbe essere necessario per proteggere i diritti costituzionali al giusto processo. Tuttavia, rivelare l’algoritmo IRS per rilevare la frode nelle dichiarazioni dei redditi o divulgare programmi di apprendimento automatico che trasformano il materiale informativo in informazioni utili per i funzionari della sicurezza nazionale consentirebbe solo il gioco del sistema. Una regola generale che richiede la divulgazione del codice sorgente sarebbe giusta in alcuni casi e un disastro in altri casi.
In modo simile, una regola generale che i programmi di apprendimento automatico devono essere spiegabili o che non dovrebbero essere usati sarebbe in alcuni casi la cosa giusta e un grave passo falso in altri. Probabilmente è una buona idea per gli infermieri intraprendere azioni preventive basate sulla scoperta che i segni vitali nei bambini prematuri diventano insolitamente stabili ventiquattro ore prima dell’inizio di una febbre pericolosa per la vita, anche se nessuno ha una buona comprensione della causa meccanismo coinvolto. Ma, una correlazione che emerge inspiegabilmente da un programma di apprendimento automatico che suggerisce che i pazienti asmatici con polmonite sono a minor rischio di morte rispetto ad altri pazienti non dovrebbero essere utilizzati per prendere decisioni di ospedalizzazione.
A volte non è ancora chiaro se debbano essere richieste o meno spiegazioni comprensibili. Ad esempio, le normative statunitensi richiedono che le società di carte di credito forniscano le ragioni di un’azione negativa. Ma questo potrebbe non essere possibile per un nuovo programma di apprendimento automatico che incorpori migliaia di variabili non tradizionali che interagiscono in modi complessi e imperscrutabili. Se il nuovo algoritmo è molto più accurato di quelli più vecchi e può rilevare persone meritevoli di credito che sono state completamente perse con i punteggi meno precisi, dovrebbe questo aumento della disponibilità di credito compensare il requisito di spiegazione?
I regolatori stanno già affrontando questi problemi. L’Ufficio per la protezione finanziaria dei consumatori sta valutando le sfide normative create da dati alternativi e tecniche analitiche alternative. La Food and Drug Administration sta valutando quali regole dovrebbero applicarsi al software di decisione clinica di machine learning. L’attuale politica del Dipartimento della Difesa per il dispiegamento di sistemi di armi autonomi richiede che gli umani mantengano un controllo “significativo”, e le discussioni etiche su sistemi completamente autonomi si concentrino sulla possibilità di imitare con successo le decisioni sul campo di battaglia di un ragionevole comandante.
Le questioni chiave in discussione sono tutte specifiche per settore.
Chi dovrebbe essere responsabile per incidenti e lesioni che coinvolgono auto autonome? Dovremmo seguire il modello della carta di credito di assegnare responsabilità ad alcuni attori e proteggere gli altri o dovremmo consentire agli attori del mercato di risolverlo tramite contratti?
Le leggi antidiscriminatorie dovrebbero essere riformate per chiarire che le pubblicità mirate che coinvolgono l’affiliazione etnica non sono consentite nelle aree di determinazione dell’idoneità come l’occupazione, l’alloggio, il credito e l’assicurazione? Queste leggi dovrebbero essere adeguate per proteggere i gruppi vulnerabili in nuove aree di interesse come la consegna dei risultati di ricerca?
La buona notizia è che il gruppo di esperti di alto livello dell’UE sembra riconoscere che “il contesto specifico deve essere preso in considerazione” nell’applicazione degli orientamenti. Concludono che:
“Mentre l’ambito delle Linee Guida copre le applicazioni di IA in generale, si dovrebbe tenere presente che situazioni diverse sollevano sfide diverse. I sistemi di intelligenza artificiale che raccomandano canzoni ai cittadini non aumentano la stessa sensibilità dei sistemi di intelligenza artificiale che raccomandano un trattamento medico critico … È, quindi, riconosciuto esplicitamente che è necessario un approccio su misura data la specificità del contesto di AI. “
Di conseguenza, il gruppo intende produrre raccomandazioni specifiche per quattro casi d’uso specifici: assistenza sanitaria, guida autonoma, premi assicurativi e profilazione nell’applicazione della legge.
Questo focus sulla specificità del dominio coincide con la conclusione del gruppo di studio AI nel 2016:
“… i tentativi di regolare” IA “in generale sarebbero fuorviati, poiché non esiste una chiara definizione di IA (non è una cosa qualsiasi), e i rischi e le considerazioni sono molto diversi nei diversi domini. Invece, i responsabili delle politiche dovrebbero riconoscere che a vari livelli e nel tempo, vari settori avranno bisogno di regolamenti distinti e appropriati che tocchino software costruiti utilizzando l’intelligenza artificiale o incorporando l’intelligenza artificiale in qualche modo “.
Questa attenzione al contesto è la giusta direzione. Ma non è stato ancora confermato dai decisori. Mentre i responsabili politici dell’UE si muovono verso la regolamentazione dell’IA, dovrebbero chiarire che le linee guida generali sull’AI sono solo elementi da considerare per l’appropriatezza in un contesto, piuttosto che requisiti che devono essere implementati in modo uniforme in tutti i contesti.