Lo studio rileva che pochi importanti documenti di ricerca sull’IA considerano gli impatti negativi 

 

Negli ultimi decenni, l’intelligenza artificiale è diventata una tecnologia pervasiva, che colpisce le aziende di tutti i settori e in tutto il mondo. Queste innovazioni nascono dalla ricerca e gli obiettivi della ricerca nel campo dell’IA sono influenzati da molti fattori. Insieme, questi fattori modellano i modelli in ciò che la ricerca realizza, così come chi ne trae vantaggio e chi no.

Nel tentativo di documentare i fattori che influenzano la ricerca sull’IA, i ricercatori di Stanford, dell’Università della California, di Berkeley, dell’Università di Washington e dell’University College Dublin & Lero hanno esaminato 100 studi altamente citati presentati a due importanti conferenze sull’IA, NeurIPS e ICML. Sostengono che nei documenti che hanno analizzato, pubblicati nel 2008, 2009, 2018 e 2019, i valori dominanti sono stati resi operativi in ​​modi che centralizzano il potere, beneficiando in modo sproporzionato le società e trascurando i meno avvantaggiati della società.

 
“La nostra analisi di articoli altamente influenti nella disciplina rileva che non solo favoriscono i bisogni delle comunità di ricerca e delle grandi aziende rispetto ai bisogni sociali più ampi, ma anche che danno per scontato questo favoritismi”, hanno scritto i coautori del documento. “Il favoritismo si manifesta nella scelta dei progetti, nella mancanza di considerazione dei potenziali impatti negativi e nella prioritizzazione e operatività di valori come prestazioni, generalizzazione, efficienza e novità. Questi valori sono resi operativi in ​​modi che sfavorerebbero i bisogni della società, di solito senza discussione o riconoscimento”.

Negli articoli che hanno esaminato, i ricercatori hanno identificato “prestazioni”, “sviluppo sul lavoro passato”, “generalizzazione”, “efficienza”, “prove quantitative” e “novità” come i valori principali sposati dai coautori. Al contrario, i valori relativi ai diritti degli utenti e ai principi etici sono apparsi molto raramente, se non del tutto. Nessuno degli articoli ha menzionato l’autonomia, la giustizia o il rispetto per le persone e la maggior parte ha solo giustificato il modo in cui i coautori hanno raggiunto determinati obiettivi tecnici interni. Oltre i due terzi, il 71%, non ha fatto menzione delle esigenze o dell’impatto sociale, e solo il 3% ha tentato di identificare i collegamenti che collegano la loro ricerca alle esigenze della società.

Uno dei documenti includeva una discussione sugli impatti negativi e un secondo menzionava la possibilità. Ma significativamente, nessuno dei restanti 98 conteneva alcun riferimento a potenziali impatti negativi, secondo i ricercatori di Stanford, Berkeley, Washington e Dublino. Anche dopo che NeurIPS ha imposto ai coautori che presentano documenti di dichiarare il “potenziale impatto più ampio del loro lavoro” sulla società, a partire da NeurIPS 2020 lo scorso anno, il linguaggio si è orientato verso conseguenze positive, spesso menzionando le conseguenze negative solo brevemente o per niente.

“Rifiutiamo la vaga concettualizzazione della disciplina dell'[AI] come valore neutro”, hanno scritto i ricercatori. “Il risultato è che la disciplina del ML non è neutrale rispetto al valore. Scopriamo che è socialmente e politicamente caricato, spesso trascurando i bisogni e i danni della società, dando priorità e promuovendo la concentrazione del potere nelle mani di attori già potenti”.

A tal fine, i ricercatori hanno scoperto che i legami con le società – sia finanziamenti che affiliazioni – nei documenti esaminati sono raddoppiati al 79% dal 2008 e 2009 al 2018 e al 2019. Nel frattempo, i legami con le università sono diminuiti all’81%, mettendo quasi alla pari le società. con le università per la ricerca AI più citata.

La tendenza è in parte attribuibile al bracconaggio del settore privato. Dal 2006 al 2014, la proporzione di pubblicazioni di intelligenza artificiale con un autore affiliato all’azienda è aumentata da circa lo 0% al 40% , riflettendo il crescente movimento di ricercatori dal mondo accademico alle aziende.

Ma qualunque sia la causa, i ricercatori affermano che l’effetto è la soppressione di valori come beneficenza, giustizia e inclusione.

“I principali valori dichiarati di [AI] che abbiamo presentato in questo documento come prestazioni, generalizzazione ed efficienza … consentono e facilitano la realizzazione degli obiettivi di Big Tech”, hanno scritto. “Un grande set di dati di immagini all’avanguardia, ad esempio, è strumentale per modelli su larga scala, a ulteriore vantaggio dei ricercatori [AI] e delle grandi tecnologie in possesso di un’enorme potenza di calcolo. Nel clima attuale in cui valori come accuratezza, efficienza e scala, come attualmente definiti, sono una priorità, la sicurezza degli utenti, il consenso informato o la partecipazione possono essere percepiti come costosi e dispendiosi in termini di tempo, eludendo i bisogni sociali.

Una storia di disuguaglianza
Lo studio è solo l’ultimo a sostenere che l’industria dell’intelligenza artificiale è costruita sulla disuguaglianza. In un’analisi delle pubblicazioni in due importanti sedi di conferenze sull’apprendimento automatico, NeurIPS 2020 e ICML 2020, nessuno dei primi 10 paesi in termini di indice di pubblicazione si trovava in America Latina, Africa o Sud-Est asiatico. Un rapporto separato del Center for Security and Emerging Technology della Georgetown University ha rilevato che mentre 42 dei 62 principali laboratori di intelligenza artificiale si trovano al di fuori degli Stati Uniti, il 68% del personale si trova negli Stati Uniti.

Gli squilibri possono provocare danni, in particolare dato che il campo dell’intelligenza artificiale generalmente manca di descrizioni chiare dei pregiudizi e non riesce a spiegare come, perché e per chi è dannoso uno specifico pregiudizio. Ricerche precedenti hanno scoperto che ImageNet e OpenImages, due grandi set di dati di immagini pubblicamente disponibili, sono incentrati sugli Stati Uniti e sull’euro. I modelli addestrati su questi set di dati hanno prestazioni peggiori sulle immagini dei paesi del Sud del mondo. Ad esempio, le immagini degli sposi sono classificate con minore precisione quando provengono dall’Etiopia e dal Pakistan, rispetto alle immagini degli sposi dagli Stati Uniti. In questo senso, a causa del modo in cui immagini di parole come “matrimonio” o “spezie” sono presentate in culture nettamente diverse, i sistemi di riconoscimento degli oggetti disponibili al pubblico non riescono a classificare correttamente molti di questi oggetti quando provengono dal Sud del mondo.

Sono in corso iniziative per invertire la tendenza, come Khipu  e  Black in AI , che mirano ad aumentare il numero di studiosi latinoamericani e neri che partecipano e pubblicano alle prime conferenze di AI. Altre comunità con sede nel continente africano , come  Data Science Africa ,  Masakhane e  Deep Learning Indaba , hanno ampliato i loro sforzi con conferenze, workshop, premi per tesi e curricula sviluppati per la più ampia comunità africana di AI.

Ma restano lacune sostanziali. La ricercatrice di intelligenza artificiale Timnit Gebru è stata licenziata dalla sua posizione in un team di etica dell’intelligenza artificiale presso Google, secondo quanto riferito, in parte a causa di un documento che discute i rischi associati all’implementazione di modelli linguistici di grandi dimensioni, incluso l’impatto della loro impronta di carbonio sulle comunità emarginate e la loro tendenza a perpetuare un linguaggio offensivo, incitamento all’odio, microaggressioni, stereotipi e altri linguaggi disumanizzanti rivolti a specifici gruppi di persone. Coautori Google affiliati in seguito pubblicato un documento spingendo indietro contro le richieste ambientali del Gebru.

“Presentiamo questo documento in parte per esporre la contingenza dello stato attuale del campo; potrebbe essere diversamente”, hanno scritto i ricercatori dell’University College Dublin & Lero e i loro associati. “Per gli individui, le comunità e le istituzioni che percorrono valori del campo difficili da definire, così come per coloro che si sforzano verso valori alternativi, è uno strumento utile per avere una caratterizzazione del modo in cui il campo è ora, per comprendere , plasmando, smantellando o trasformando ciò che è, e per articolare e realizzare visioni alternative”.

 

Di ihal