Gli assistenti vocali di AI rinforzano gli stereotipi di genere dannosi, afferma un nuovo rapporto delle Nazioni Unite

Le voci predefinite dal suono femminile perpetuano idee antiquate e dannose sulle donne

Secondo un nuovo studio pubblicato dalle Nazioni Unite , gli assistenti vocali basati sull’intelligenza artificiale, molti dei quali con vocazione femminile, rafforzano gli stereotipi di genere dannosi .

Intitolato “arrossirei se potessi,” dopo una risposta che Siri pronuncia quando riceve certi comandi sessualmente espliciti, il documento esplora gli effetti del pregiudizio nella ricerca e nello sviluppo del prodotto e le potenziali implicazioni negative a lungo termine della società condizionata, in particolare i bambini , per trattare questi assistenti vocali digitali come ausiliari incondizionati che esistono solo per servire i proprietari incondizionatamente. È stato creato dall’Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura, altrimenti noto come UNESCO.

Il documento sostiene che nominando assistenti vocali con nomi tradizionalmente femminili, come Alexa e Siri, e rendendo le voci come femminili per impostazione predefinita, le aziende tecnologiche hanno già precondizionato gli utenti a ricorrere a percezioni antiquate e dannose delle donne. Andando oltre, il documento sostiene che le società tecnologiche non sono riuscite a costruire adeguate salvaguardie contro il linguaggio ostile, offensivo e di genere. Invece, la maggior parte degli assistenti, come Siri, tende a deviare l’aggressività o a suonarla con uno scherzo furbo. Ad esempio, chiedi a Siri di farti un panino e l’assistente vocale risponderà con “Non posso. Non ho nessun condimento. “

LE COMPAGNIE TECNOLOGICHE STANNO PERPETUANDO STEREOTIPI DANNOSI SULLE DONNE ATTRAVERSO L’INTELLIGENZA ARTIFICIALE
“Aziende come Apple e Amazon, gestite da team di tecnici prevalentemente maschili, hanno costruito sistemi di intelligenza artificiale che fanno sì che i loro assistenti digitali femminizzati salutino gli abusi verbali con il flirt” prendi-ti-fai-tu-puoi “, afferma il rapporto. “Poiché il discorso della maggior parte degli assistenti vocali è femminile, invia un segnale che le donne sono … aiutanti docili e desiderosi di piacere, disponibili con il semplice tocco di un pulsante o con un comando vocale smussato come” hey “o” OK ” ‘. L’assistente non ha potere di agire al di là di ciò che il comandante gli chiede. Onora i comandi e risponde alle domande indipendentemente dal tono o dall’ostilità “.

Molto è stato scritto sulle insidie ​​delle società tecnologiche che hanno costruito le loro intere piattaforme AI rivolte ai consumatori nell’immagine delle tradizionali idee influenzate da Hollywood di intelligenze asservite. In futuro, è probabile che gli assistenti vocali rappresentino la principale modalità di interazione con hardware e software con l’avvento del cosiddetto ambiente computing , quando tutti i tipi di gadget connessi a Internet esistono sempre attorno a noi. ( Pensa a Spike Jonze’s Her, che sembra la rappresentazione più accurata del prossimo futuro nel film che puoi trovare oggi.) Il modo in cui interagiamo con le intelligenze sempre più sofisticate che alimentano queste piattaforme potrebbe avere profondi effetti culturali e sociologici sul modo in cui interagiamo con altri esseri umani, con il servizio lavoratori, e con robot umanoidi che assumono ruoli più sostanziali nella vita quotidiana e nella forza lavoro.

Tuttavia, come riportato da Business Insider lo scorso settembre , Amazon ha scelto una voce dal suono femminile perché la ricerca di mercato indicava che sarebbe stata accolta più “solidale” e quindi più utile. Microsoft, d’altra parte, ha chiamato il suo assistente Cortana per fare affidamento sul riconoscimento già esistente del personaggio dell’IA che identificava la donna nella sua serie di videogiochi Halo ; non è possibile modificare la voce di Cortana a quella maschile e la società non ha detto quando intende consentire agli utenti di farlo . Siri, per quello che vale, è un nome scandinavo tradizionalmente per le femmine che significa “bella vittoria” in Antico Norvegese. In altre parole, queste decisioni sul genere riguardo agli assistenti di AI sono state fatte apposta, e dopo quello che sembra un ampio feedback.

IL CAMPO DI RICERCA DELL’IA È PREVALENTEMENTE BIANCO E MASCHILE
Le aziende tecnologiche hanno compiuto uno sforzo per abbandonare queste prime decisioni di progettazione intrise di stereotipi. Google ora fa riferimento alle varie opzioni vocali di Assistente, che ora includono diversi accenti con opzioni maschili e femminili per ognuno, rappresentate dai colori. Non è più possibile selezionare una versione “maschio” o “femmina”; ogni colore è assegnato in modo casuale a una delle otto opzioni vocali per ciascun utente. La società ha anche lanciato un’iniziativa chiamata Pretty Please che premia i bambini quando usano frasi come “per favore” e “grazie” mentre interagiscono con l’Assistente Google. Amazon ha rilasciato qualcosa di simile l’anno scorso per incoraggiare un comportamento educato quando parlava con Alexa.

Tuttavia, come afferma il rapporto, queste caratteristiche e opzioni di genere non sono sufficienti; il problema potrebbe essere citato nell’IA e nelle industrie tecnologiche stesse. Il campo della ricerca sull’IA è prevalentemente bianco e maschile, un nuovo rapporto del mese scorso trovato . L’ottanta percento degli accademici di intelligenza artificiale sono uomini e solo il 15 percento dei ricercatori di intelligenza artificiale di Facebook e solo il 10 percento di Google sono donne.

L’UNESCO sostiene che la soluzione a questo problema sarebbe quella di creare il più vicino possibile alle voci di aiuto indipendenti dal genere e creare sistemi per scoraggiare gli insulti basati sul genere. Inoltre, il rapporto dice che le società tecnologiche dovrebbero allontanarsi dagli utenti condizionatori per trattare l’IA come se fossero un essere umano inferiore e sottomesso, e che l’unico modo per evitare di perpetuare stereotipi dannosi come questi è di rifare gli assistenti vocali come entità non umane intenzionalmente.

Di ihal