Le aspettative erano alte quando martedì la Casa Bianca ha pubblicato il suo progetto per una Carta dei diritti AI . Sviluppato dall’Ufficio per la politica scientifica e tecnologica (OSTP) della Casa Bianca, il progetto è un documento non vincolante che delinea cinque principi che dovrebbero guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati, nonché una guida tecnica per l’attuazione dei principi, compresa l’azione raccomandata per una varietà di agenzie federali. 

Per molti, le grandi aspettative per un cambiamento drammatico hanno portato alla delusione, comprese le critiche sul fatto che l’AI Bill of Rights è “sdentato” contro i danni dell’intelligenza artificiale ( AI ) causati dalle grandi aziende tecnologiche ed è solo un “libro bianco”. 

 
Summit Cloud in un mondo Web 3.0 Come l’edge computing guida le piattaforme che fanno convergere le esigenze di IT, operazioni e sviluppatori_Landscape
Non sorprende che ci fossero alcune aspettative non corrispondenti su ciò che la Carta dei diritti AI avrebbe incluso, ha detto a VentureBeat Alex Engler, un ricercatore presso la Brookings Institution.

“Si potrebbe obiettare che l’OSTP si è un po’ organizzato con questo grande annuncio appariscente, non comunicando anche che sono un ufficio di consulenza scientifica”, ha detto Engler.

 

Sforzi per ridurre i rischi dell’IA
Gli sforzi dell’amministrazione Biden per frenare i rischi dell’IA sono certamente diversi da quelli attualmente in discussione nell’UE, ha aggiunto.

“L’UE sta cercando di elaborare regole che si applichino in gran parte a tutte le circostanze che si possono concepire utilizzando un algoritmo per il quale esiste un rischio per la società”, ha affermato Engler. “Stiamo assistendo all’approccio quasi opposto dell’amministrazione Biden, che è un approccio molto settoriale e persino specifico dell’applicazione, quindi c’è un contrasto molto chiaro”. 

Abhishek Gupta, fondatore e ricercatore principale presso l’AI Ethics Institute di Montreal, ha sottolineato che sebbene ci siano carenze, sono principalmente la funzione di un campo in continua evoluzione in cui nessuno ha ancora tutte le risposte. 

“Penso che faccia un ottimo lavoro nel far avanzare la palla, in termini di cosa dobbiamo fare, cosa dovremmo fare e come dovremmo farlo”, ha detto Gupta. 

Gupta ed Engler hanno descritto in dettaglio tre cose chiave che dicono che l’AI Bill of Rights faccia effettivamente e tre cose che non lo fanno: 

La Carta dei diritti AI fa :

1. Evidenzia principi significativi e completi. 
Il Blueprint include cinque principi relativi a sistemi sicuri ed efficaci, protezioni contro la discriminazione algoritmica, privacy dei dati, avviso e spiegazione, nonché alternative umane, considerazione e fallback.

“Penso che i principi di per sé siano significativi”, ha affermato Engler. “Non solo sono ben scelti e ben fondati, ma danno una sorta di fondamento intellettuale all’idea che ci siano danni sistemici e algoritmici ai diritti civili”. 

Engler ha affermato di ritenere che un’ampia concettualizzazione dei danni sia preziosa e completa.

“Penso che potresti sostenere che, semmai, è troppo completo e avrebbero dovuto dedicare un po’ più di tempo ad altre questioni, ma è certamente positivo”, ha detto. 


2. Offrire un approccio orientato all’agenzia e incentrato sul settore .
Una cosa è avere dei principi, ma Engler sottolinea che la prossima domanda ovvia è: cosa può fare il governo al riguardo?


“Il sottotesto ovvio per quelli di noi che stanno prestando attenzione è che le agenzie federali guideranno nell’applicazione pratica delle leggi attuali agli algoritmi”, ha affermato. “Questo sarà particolarmente significativo in alcune delle grandi preoccupazioni sistemiche relative all’IA. Ad esempio, la Commissione per le pari opportunità di lavoro sta lavorando sulla discriminazione delle assunzioni. E uno di cui non sapevo che è molto nuovo è che la salute e i servizi umani stanno cercando di combattere i pregiudizi razziali nell’approvvigionamento sanitario, che è un problema davvero sistemico”. 

Uno dei vantaggi di questo tipo di approccio settoriale e applicativo è che se le agenzie stanno davvero scegliendo quali problemi devono affrontare, come incoraggiato dalla Casa Bianca, saranno più motivate. “Sceglieranno i problemi che interessano ai loro stakeholder”, ha detto. “E [ci può essere] una politica davvero significativa e specifica che considera gli algoritmi in questo contesto più ampio”.

3. Riconoscere gli elementi organizzativi.
Gupta ha affermato di aver particolarmente apprezzato il riconoscimento degli elementi organizzativi da parte del progetto quando si tratta di come i sistemi di intelligenza artificiale vengono acquistati, progettati, sviluppati e distribuiti.

“Penso che tendiamo a trascurare quanto sia critico il contesto organizzativo: la struttura, gli incentivi e il modo in cui le persone che progettano e sviluppano questi sistemi interagiscono con essi”, ha affermato.  


La Carta dei diritti dell’IA, ha spiegato, diventa particolarmente esauriente toccando questo elemento chiave che in genere non viene incluso o riconosciuto.

“Armonizza sia gli interventi di progettazione tecnica che la struttura organizzativa e la governance come un obiettivo comune che stiamo cercando di raggiungere, piuttosto che due flussi separati per affrontare i problemi di IA responsabile”, ha aggiunto Gupta.

La Carta dei diritti AI non :
1. Creare un documento legale vincolante. 
La parola “Bill of Rights”, non sorprendentemente, fa riflettere la maggior parte sulla natura giuridica vincolante dei primi 10 emendamenti della costituzione statunitense.


“È difficile pensare a un termine legale più spettacolare di AI Bill of Rights”, ha affermato Engler. “Quindi posso immaginare quanto sia deludente quando in realtà ciò che stai ottenendo è l’adattamento incrementale delle linee guida normative delle agenzie esistenti”. 

Detto questo, ha spiegato: “Questa è in molti modi, la migliore e la prima cosa che vogliamo: vogliamo esperti del settore specifici che comprendano la politica di cui dovrebbero essere responsabili, che si tratti di alloggi o assunzioni o sicurezza sul lavoro o assistenza sanitaria, e vogliamo che applichino buone regole in quello spazio, con una comprensione degli algoritmi”.

Ha proseguito: “Penso che sia la scelta consapevole che stiamo vedendo, invece di cercare di scrivere regole centrali che in qualche modo governino tutte queste cose diverse, che è uno dei motivi per cui la legge dell’UE è così confusa e così difficile da andare avanti”. 

2. Coprire ogni settore importante. 

L’AI Bill of Rights, ha detto Engler, rivela i limiti di un approccio volontario, guidato dalle agenzie, dal momento che c’erano diversi settori che mancano in particolare, tra cui l’accesso all’istruzione, la sorveglianza dei lavoratori e, soprattutto, quasi qualsiasi cosa dalle forze dell’ordine.

“Si può dubitare che le forze dell’ordine federali abbiano adottato misure per limitare l’uso inappropriato di strumenti algoritmici come l’uso non documentato del riconoscimento facciale, o per affermare in modo davvero affermativo che ci sono limiti a ciò che la sorveglianza informatica e la visione artificiale possono fare, o che il rilevamento di armi potrebbe non essere molto affidabile”, ha detto Engler. “Non è chiaro se ridurranno volontariamente il proprio uso di questi sistemi, e questo è uno svantaggio davvero significativo”.

3. Fai il passo successivo per testare nel mondo reale.
Gupta ha affermato che ciò che vorrebbe vedere sono organizzazioni e aziende che provano le raccomandazioni della Carta dei diritti dell’IA in progetti pilota del mondo reale e documentano le lezioni apprese.

“Sembra che manchino casi di studio per le applicazioni, non per queste particolari serie di linee guida che sono state appena pubblicate, ma per altre serie di linee guida e pratiche e modelli proposti”, ha affermato. “A meno che non li testiamo davvero nel mondo reale con casi di studio e progetti pilota, a meno che non proviamo queste cose nella pratica, non sappiamo fino a che punto le pratiche, i modelli e le raccomandazioni proposti funzionino o non funzionino”.


Le imprese devono prestare attenzione
Sebbene l’AI Bill of Rights non sia vincolante e si concentri principalmente sulle agenzie federali, le aziende devono comunque prenderne atto, ha affermato Engler. 

“Se ti trovi già in uno spazio regolamentato e ci sono già normative sui libri che influiscono sul tuo sistema finanziario o sul processo di valutazione della proprietà o sulle tue assunzioni, e hai iniziato a fare qualsiasi cosa con un sistema algoritmico o un software, c’è un bel buone probabilità che una delle tue agenzie di regolamentazione scriva alcune indicazioni che dicono che si applicano a te “, ha detto. 

E mentre le industrie non regolamentate potrebbero non dover essere preoccupate a breve termine, Engler ha aggiunto che qualsiasi settore che coinvolga servizi umani e utilizzi complicati algoritmi blackbox potrebbe essere esaminato in futuro. 


“Non credo che accadrà dall’oggi al domani, e dovrebbe accadere attraverso la legislazione”, ha detto. “Ma ci sono alcuni requisiti nell’American Data Privacy and Protection Act, che potrebbero essere effettivamente approvati quest’anno, che hanno una protezione dell’algoritmo, quindi sarei anche preoccupato per quello”. 

Nel complesso, Gupta ha affermato di ritenere che l’IA Bill of Rights abbia continuato a sollevare l’importanza di un’IA responsabile per le organizzazioni. 

“Quello che fa concretamente ora per le aziende è dare loro una direzione in termini di ciò in cui dovrebbero investire”, ha affermato, indicando uno studio del MIT Sloan Management Review/Boston Consulting Group che ha rilevato che le aziende che danno priorità al loro programma RAI rispetto a ridimensionando le proprie capacità di intelligenza artificiale si verificano quasi il 30% in meno di errori di intelligenza artificiale.  

“Penso che [la Carta dei diritti dell’IA] stabilisca la giusta direzione per ciò di cui abbiamo bisogno in questo campo dell’IA responsabile per il futuro”, ha affermato. 

Di ihal