Home / Intelligenza artificiale pericolo / L’intelligenza artificiale e il pericolo che gli algoritmi stiano decidendo se concederci un prestito o mandarci in prigione

L’intelligenza artificiale e il pericolo che gli algoritmi stiano decidendo se concederci un prestito o mandarci in prigione

I principali sviluppatori di AI condividono i loro timori riguardo allo sviluppo della tecnologia troppo veloce
Dimentica i robot che svolgono il nostro lavoro: dobbiamo essere più preoccupati che gli algoritmi stiano decidendo se ricevere un prestito o andare in prigione

Per capire fino a che punto siamo arrivati ​​con lo sviluppo di AI, pensate a quando le auto sono state inventate per la prima volta, afferma Aleksandra (Saška) Mojsilović, un IBM Fellow e co-direttore di IBM Science for Social Good. “Era il selvaggio West”, sostiene Mojsilović, “gente che guida a destra e sinistra, nessun segnale di stop o cinture di sicurezza.” Mojsilović, che guida anche AI ​​fidato per IBM Research, sottolinea che le misure di sicurezza per le auto sono state costruite molto più tardi – dopo che si sono verificati incidenti.

E se c’è qualcosa che impedisce a Mojsilović e alla sua collega Francesca Rossi, responsabile globale di AI Ethics dell’IBI Research, di svegliarsi di notte, è che i guardrail IA sono appena stati stabiliti.

In alcuni casi, l’IA “sicura” probabilmente non è nemmeno presente sul radar della maggior parte delle persone. Considera che in questo momento, l’IA si sta facendo strada in ogni genere di innocue applicazioni quotidiane, come gli assistenti digitali che possono dirti il ​​tempo o tenere un elenco di generi alimentari in esecuzione, o un chatbot che prende il posto di un rappresentante del servizio clienti per trattare comunemente domande chieste.

Tuttavia, quando si tratta di coloro che intendono potenziare il processo decisionale umano, come assumere candidati basati sul merito , o addestrare i lavoratori ad essere più etici , o mantenere la vostra compagnia di persone anziane dicendo loro battute o ricordando loro di prendere le loro medicine, tutto inizia a diventare un po ‘più teso. E che dire degli algoritmi che aiutano a diagnosticare malattie o decidere chi riceve un prestito ? “Ci rende tutti molto a disagio”, dice Mojsilović, “quando AI inizia a prendere decisioni in merito all’assunzione, all’istruzione, se ci viene concessa la libertà condizionale”.

In un mondo perfetto, non dovremmo pensare al lato oscuro. Le macchine renderebbero decisioni più rapide, più intelligenti, meno tendenziose degli umani, il tutto per il bene superiore con un’efficienza senza precedenti. Come ha detto il robot Sophia a Andrew Ross Sorkin della CNBC : “Hai letto troppo Elon Musk e guardato troppi film di Hollywood. Se sei gentile con me, sarò gentile con te. Trattami come un sistema di input-output intelligente. “

Robotic Hand Signing Document On Wooden Desk In Courtroom

Ma poiché lo sviluppo inizia con gli esseri umani e le applicazioni sono utilizzate dagli esseri umani, i dati inseriti nella macchina possono essere manipolati. I ricercatori di Harvard e del MIT avvertono che nel caso di applicazioni sanitarie, l’IA può essere ingannata nel creare una falsa diagnosi se un medico o un ospedale umano ha modificato i dati per il proprio guadagno. Come tali, scrivono, quelli che sviluppano l’IA e i regolatori devono costruire misure di sicurezza.

Anche l’intelligenza artificiale può avere pregiudizi
O i dati in entrata potrebbero essere difettosi. Più di recente, l’ACLU ha condotto un test dello strumento di riconoscimento facciale di Amazon e il software ha abbinato in modo errato 28 membri del Congresso con persone che sono state arrestate per un crimine. L’ ACLU ha riferito che le false corrispondenze avevano un numero sproporzionato di persone di colore, inclusi sei membri del Congressional Black Caucus. E in altre applicazioni, si è dimostrato ingiusto verso gli immigrati , le donne e le persone transgender .

Questo tipo di pregiudizio è un problema spinoso che sta tenendo Tracey Robinson in allerta mentre lei e il suo team continuano a sviluppare Amelia, la “collega” digitale di IA di IPsoft. Robinson, il direttore di Cognitive Implementation per Amelia, sostiene che il riconoscimento di pregiudizi sia il lato umano che quello tecnico sono uno dei componenti cruciali dei team di Amelia di IPsoft. Come tale, Robinson afferma di lavorare con linguisti e designer conversazionali che supervisionano lo sviluppo, i test e la formazione di Amelia per identificare ed eliminare pregiudizi percepiti prima di esporla ai clienti.

“La natura umana rende impossibile eliminare completamente i pregiudizi, motivo per cui è un imperativo organizzativo impiegare il più possibile un gruppo di formazione di intelligenza artificiale, sia culturalmente, geograficamente, di genere, esperienza e competenze”, dice Robinson. Se una società australiana usasse Amelia, afferma, “faremmo in modo che lei parlasse e interagisse in un modo specifico per l’Australia, inclusi i colloquiali”.
Robinson ritiene che l’evoluzione più significativa dell’IA negli ultimi anni sia stata questa importante il riconoscimento di una forza lavoro diversificata come parte integrante del mantenimento della formazione etica, quindi il risultato può essere un collega digitale altamente obiettivo.

AI e la natura ingannevole del linguaggio umano
Oltre a Jigsaw, che, insieme a Google, fa parte dell’entità ombrello chiamata Alphabet, l’ingegnere del software Lucy Vasserman si occupa di pregiudizi linguistici altrettanto difficili. Lei e il suo team stanno lavorando su Perspective , che è costituito da modelli di apprendimento automatico che predicono la tossicità nel linguaggio. Il modo in cui funziona è che segna il testo da siti Web o forum online per quanto è probabile che qualcuno possa ricevere quel testo come tossico. “Tossico è il nostro modello di punta, ma facciamo altri sottotipi, come insulti, attacchi di identità”, afferma Vasserman.

Usando enormi set di dati, come la sezione dei commenti del New York Times , Vasserman afferma che gli umani (tra i 3 ei 20 per messaggio) dietro l’IA in via di sviluppo vengono interrogati su come certi messaggi li abbiano fatti sentire. Questo perché, dice Vasserman, “le persone non sono molto brave a tenere traccia di una definizione specifica [come tossici], ma le persone sono davvero brave a sapere come si sentono”. Questo avviene in un modello di apprendimento automatico, chiamato Rete neurale, che fondamentalmente impara parole, frasi e paragrafi e impara a prevedere cosa è tossico o cosa la gente crede sia tossico. “

La parte più difficile di questa è la sfumatura, dice Vasserman. Spiega che la parola “gay”, ad esempio, non è sempre intesa come un insulto. Quindi la macchina doveva essere addestrata su come non interpretare erroneamente i dati. “Abbiamo raccolto i dati dagli articoli del New York Times stessi e dagli articoli di Wikipedia in cui quegli autori utilizzavano termini identitari in modo sano e positivo”, spiega. Se dai al modello i dati giusti, dice, è in grado di distinguere. “Può capire la differenza tra” Sono un gay orgoglioso “e quando qualcuno dice” Sei gay “, significa essere offensivo,” dice.

L’API per Prospettiva è aperta e gli sviluppatori sono incoraggiati a eseguire esperimenti open source. “Penso che sia davvero importante dimostrare al settore come ciò possa essere fatto e quali siano le migliori pratiche per costruire prodotti per l’apprendimento automatico della macchina”, afferma. “Farlo funzionare nel nostro prodotto non è sufficiente.” Ma il lavoro non è finito. Anche se Perspective ha analizzato alcuni miliardi di messaggi a doppia cifra, Vasserman è ancora in stato di allerta per combattere il bias della lingua.

“Abbiamo bisogno di espanderci oltre il dominio del tipico commento che vedi online”, dice. Al fine di garantire che il modello rappresenti conversazioni diverse, è necessario alimentarlo con conversazioni e dati diversi, spiega Vasserman.

Ora è focalizzata sull’ottenere dati da conversazioni in cui le persone utilizzano parole di recupero come “diga” per identificarsi in modo positivo. “Parole come quella sono spesso usate in modo offensivo, ma le comunità le rivendicano e si sentono offese quando un modello di apprendimento automatico dice semplicemente: ‘Bene, questa parola è qui, quindi deve essere offensivo.’ ”

I pezzi di linguaggio che sono davvero difficili per gli esseri umani saranno anche difficili da apprendere per le macchine, sostiene Vasserman. “Vedo che il più grande vantaggio di ciò che stiamo facendo è far sì che la macchina faccia la parte che è facile per gli umani, in modo che i moderatori umani [siano liberi] di concentrarsi sulla conversazione e comprendere il contesto di ciò che sta accadendo” lei dice.

Mojsilović scherza dicendo che mentre l’hardware come i frullatori e gli altri elettrodomestici vengono con i manuali di istruzioni, l’intelligenza artificiale generale no. E questo è necessario, specialmente in questa fase iniziale, dice. Rossi sostiene che mentre l’etica e la fiducia sono molto vaghe, “cerchiamo di trovare un modo per tradurli in principi e proprietà”.

Guide etiche per l’intelligenza artificiale
Il risultato è stato una specie di manuale utente in cui Rossi ha partecipato come parte di un gruppo di esperti con la Commissione europea. Insieme hanno redatto le ” Linee guida etiche per l’IA fidata ” , che tra le altre cose stabilisce che l’intelligenza artificiale dovrebbe essere incentrata sull’uomo e “sviluppata, dispiegata e utilizzata con un” proposito etico “, fondato e riflettente sui diritti fondamentali, sulla società valori e principi etici di Beneficenza (fare il bene), Non Maleficenza (non nuocere), Autonomia degli umani, Giustizia e Esplicabilità. “Questo è tutto un modo elegante per dire che qualsiasi uso dell’IA per il male sarebbe strettamente verboso .

Tuttavia, Mojsilović sottolinea che è un buon equilibrio. Internet, osserva, può essere utilizzata per condividere informazioni di qualità o per diffondere pornografia infantile. L’intento generale è buono, ma ci sono cattivi attori là fuori. IBM sta tentando di combatterlo inserendo in anticipo le funzionalità di sicurezza prima che l’intelligenza artificiale diventi al di fuori del controllo umano con misure come la Guida etica quotidiana per gli sviluppatori e il kit di strumenti AI Fairness 360.

“Se qualcuno si fida di una decisione presa da una macchina,” dice Mojsilović, “Deve soddisfare i parametri di riferimento umani.” Ecco perché, dice, gli sviluppatori devono assicurarsi che ogni decisione presa dall’algoritmo sia equa e che le persone possano relazionarsi ad esso. È un imperativo anche per gli affari, aggiunge Rossi. “Per noi, lo scopo non è quello di creare una forma alternativa di intelligenza, ma di aumentare [l’intelligenza umana]”, dice Rossi. Molto presto, l’uso responsabile sarà un grande elemento di differenziazione tra le aziende che stanno sviluppando la tecnologia AI.

Alla fine, sono tutti d’accordo che è un nuovo mondo coraggioso. “La cosa più importante che mi tiene sveglio di notte è cercare di comprendere le infinite possibilità e gli impatti di questa tecnologia sull’assistenza sanitaria, l’istruzione e l’esperienza del cliente, così come l’esperienza dei dipendenti”, afferma Robinson di IPsoft, “C’è una vera società impatto quando l’intelligenza artificiale va oltre la promessa e la produzione “.

Ognuno di loro crede di trovarsi in un punto di flesso tra una forza lavoro umana e una digitale. “L’altra metà dell’equazione ci impone, come esseri umani, di cambiare per realizzare il pieno potenziale di questo cambiamento”, dice Robinson, “e, auspicabilmente, raggiungere, se non superare, le nostre ambizioni collettive come aziende, dipendenti, persone e la società in generale. “

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi