La ricerca dell’Europa per l’etica nell’intelligenza artificiale

Questa settimana un gruppo di 52 esperti nominati dalla Commissione europea ha pubblicato linee guida etiche per l’intelligenza artificiale (AI), che cercano di promuovere lo sviluppo di “IA fidata” ( completa informativa: sono uno dei 52 esperti ). Questo è un documento estremamente ambizioso. Per la prima volta, i principi etici non saranno semplicemente elencati, ma saranno messi alla prova in un esercizio di pilotaggio su larga scala. Il progetto pilota è pienamente supportato dalla CE, che ha approvato le linee guida e ha invitato il settore privato a iniziare a utilizzarlo, con la speranza di renderlo uno standard globale.

L’Europa non è la sola a cercare l’etica nell’IA. Negli ultimi anni, paesi come Canada e Giappone hanno pubblicato strategie AI che contengono principi etici e l’OCSE sta adottando una raccomandazione in questo settore. Iniziative private come la Partnership sull’intelligenza artificiale , che raggruppa più di 80 società e organizzazioni della società civile, hanno sviluppato principi etici. Gli sviluppatori di IA hanno concordato i principi di Asilomar e l’ IEEE ( Institute of Electrical and Electronics Engineers ) ha lavorato duramente su un quadro etico . La maggior parte dei giganti high-tech ha già i propri principi e la società civile ha lavorato su documenti, tra cui ilDichiarazione di Toronto incentrata sui diritti umani. Uno studio condotto dal professor Oxford Luciano Floridi ha trovato un allineamento significativo tra molte delle dichiarazioni esistenti, nonostante le diverse terminologie. Esse condividono anche una caratteristica distintiva: non sono vincolanti e non devono essere applicate.

Anche le linee guida europee non sono direttamente applicabili, ma vanno oltre questi precedenti tentativi sotto molti aspetti. Si concentrano su quattro principi etici (rispetto per l’autonomia umana, prevenzione del danno, equità e spiegabilità) e vanno oltre, specificando che l’IA attendibile implica anche il rispetto del diritto dell’UE e dei diritti fondamentali (compresa la privacy), nonché un alto livello di robustezza socio-tecnica. Chiunque desideri progettare, addestrare e commercializzare un sistema AI affidabile, sarà invitato a considerare attentamente i rischi che il sistema genererà e ad essere responsabile delle misure adottate per mitigarli. Le linee guida offrono un quadro dettagliato da utilizzare come guida per tale valutazione.

Per coloro che cercano affermazioni forti, le Linee guida potrebbero non essere una buona lettura. Non troverai menzione di Frankenstein, nessuna paura della singolarità, nessuna disposizione clamorosa come “l’intelligenza artificiale dovrebbe sempre essere spiegabile”, “l’intelligenza artificiale non dovrebbe mai interferire con gli umani”, “dovrebbe esserci sempre un essere umano nel ciclo”, o “AI non dovrebbe mai discriminare “. Queste affermazioni sono intuitivamente allettanti, ma sono molto lontane dalla realtà della diffusione dell’IA e probabilmente si dimostreranno sproporzionate quando convertite in un quadro politico.

Gli utenti non hanno bisogno di una spiegazione dettagliata e della comprensione di come funziona un frigorifero abilitato AI, o persino di come un veicolo autonomo prende le decisioni ordinarie. Devono fidarsi del processo che li ha portati sul mercato e poter contare su esperti che possono intervenire ogni volta che le cose vanno male. Ma gli utenti dovrebbero avere il diritto di sapere perché è stato loro negato l’accesso a un file governativo, o perché qualcuno ha tagliato la linea come destinatario di un sussidio o di un rene. Allo stesso modo, un umano nel circuito non ha senso in alcuni casi (pensa agli umani seduti al volante in auto autonome); tuttavia può essere richiesto un “on the loop” umano o un “human in command”. E mentre la discriminazione sarà spesso inevitabile perché la nostra società è già discriminata, la discriminazione eccessiva, ingiustificata e illegale dovrebbe essere messa al bando, e una pronta riparazione dovrebbe essere data agli individui danneggiati. È importante sottolineare che le Linee guida includono anche esempi di “aree di preoccupazione critica”, che sono più propensi a non soddisfare i requisiti di IA fidata: identificare e rintracciare individui con IA, implementare sistemi di IA nascosti, sviluppare punteggi cittadini abilitati all’IA in violazione dei diritti fondamentali e usando l’intelligenza artificiale per sviluppare armi letali autonome .

Il concetto di IA attendibile è ancora solo un “obiettivo ambizioso” nella formulazione del gruppo di esperti di alto livello. Spetterà alle istituzioni dell’UE decidere nei prossimi mesi se renderlo un quadro vincolante e per quali casi d’uso. Ciò può comportare l’uso di entrambe le leggi hard (come le norme modificate sugli illeciti e la legislazione settoriale che rende l’IA attendibile vincolante in alcuni contesti, le regole di concorrenza ad hoc ) e anche strumenti più soft. Tra le altre iniziative, l’UE potrebbe decidere che tutti gli appalti pubblici siano limitati all’IA attendibile; o incaricare che le applicazioni di IA nell’assistenza sanitaria siano degne di fiducia. Potrebbe essere necessario un qualche tipo di certificazione per garantire che il nuovo sistema sia correttamente implementato e che le informazioni siano presentate correttamente agli utenti.

Un altro problema è se questo sistema aiuterà l’Europa a definire gli standard internazionali per l’IA e quindi a rilanciare la sua competitività. IBM ha dichiarato che applicherà il framework in tutto il mondo. Ma dato (1) si ritiene che gli Stati Uniti forniscano un’inadeguata protezione della privacy degli utenti finali e (2) le piattaforme statunitensi siano regolarmente accusate di eccessiva interferenza con l’autonomia e l’autodeterminazione degli utenti, l’AI affidabile potrebbe anche essere utilizzata chiudere la porta a giocatori non conformi (o non europei) nel prossimo futuro. Il gruppo di esperti che ha redatto le linee guida non ha discusso alcuno di questi scenari di politica industriale e commerciale. Ma la CE ha accennato a questa possibilità sostenendo, in un recente documento ufficiale, lo sviluppo di una IA etica, sicura e all’avanguardia “made in Europe”.

Di ihal