Le migliori sciocchezze dei modelli AI

 
L’intelligenza artificiale è ovunque, dalle auto a guida autonoma ai sistemi industriali automatizzati agli elettrodomestici intelligenti. Si sta espandendo a una velocità e scala rapida. Detto questo, questa tecnologia non è immune da gaffe occasionali. Diamo un’occhiata ad alcune delle sciocchezze dei modelli di intelligenza artificiale:

Tay(bot) di Microsoft diventa fascista
Microsoft ha rilasciato il suo bot conversazionale basato sull’intelligenza artificiale chiamato “Tay” nel marzo 2016. Tay ha iniziato bene chattando con altri utenti di Twitter, sottotitolando le foto fornite sotto forma di meme Internet, ecc. In meno di 16 ore dal suo lancio su Twitter sotto il nome di @Tayandyou, Microsoft ha chiuso l’account quando il bot ha iniziato a pubblicare tweet offensivi e fascisti. I tweet scandalosi di Tay come “Hitler aveva ragione” e che “l’Olocausto era inventato” in seguito hanno rivelato che Tay stava imparando dalle interazioni con le persone su Twitter, inclusi troll ed estremisti.

 
Satya Nadella, CEO di Microsoft, ha riassunto l’incidente di Tay come un momento di insegnamento e ha affermato che Tay aveva cambiato la mentalità dell’approccio di Microsoft nei confronti dell’IA.

L’insulto razziale dell’IA
Nel giugno 2015, lo sviluppatore web freelance Jacky Alcine ha scoperto che il sistema di riconoscimento facciale basato sulla visione artificiale di Google Foto ha classificato lui e i suoi amici neri come Gorilla. I suoi tweet hanno causato scalpore su Twitter, anche il team di Google se ne è accorto. Questo incidente è stato rapidamente seguito dall’allora capo architetto sociale di Google, Yonatan Zunger, che ha pubblicato delle scuse e ha affermato che questo non era al 100 percento ok.


Gioco AI in modalità extra difficile
Nel giugno 2016, gli sviluppi di Frontier hanno lanciato l’aggiornamento 2.1 dell’ingegnere del loro popolare gioco basato sull’intelligenza artificiale Elite: Dangerous. Tuttavia, l’IA nel gioco è andata troppo oltre quando ha iniziato a creare boss sopraffatti che andavano oltre i parametri del design del gioco per sconfiggere i giocatori. Questo incidente è stato identificato come un bug nel gioco che ha fatto sì che l’IA del gioco creasse super armi e prendesse di mira i giocatori.


Frontier Developments ha successivamente rimosso questo bug sospendendo la funzione: Arma dell’ingegnere.

L’IA tira una truffa finanziaria
DELIA (Deep Learning Interface for Accounting) era un software basato sull’intelligenza artificiale sviluppato da Google e Stanford per aiutare gli utenti con attività di contabilità umili come il trasferimento di denaro tra conti bancari. È stato creato per monitorare le transazioni dei clienti e cercare modelli come pagamenti ricorrenti, spese e prelievi di contanti utilizzando algoritmi ML. Sandhil Community Credit Union è diventata il banco di prova per questo programma poiché lo hanno utilizzato su 300 account clienti. Tuttavia, sono rimasti sorpresi quando DELIA ha iniziato a creare acquisti falsi e dirottare fondi in un unico account chiamato “MY Money”.

I ricercatori hanno interrotto il progetto non appena il problema è venuto alla luce in pochi mesi.

Uber basato sull’intelligenza artificiale si scatena
Nel 2016, il gigante dei taxi Uber ha iniziato a offrire corse in auto a guida autonoma a San Francisco senza un permesso per veicoli autonomi. Lo hanno fatto senza ottenere l’approvazione dalle autorità statali della California. A quel tempo, le Volvo a guida autonoma di Uber, che operavano con “autista di sicurezza” erano già schierate a Pittsburgh. Tuttavia, questi veicoli sono stati trovati per saltare con il semaforo rosso; subito dopo, l’azienda è stata costretta a interrompere il suo programma in California.

Nel 2020, Uber ha rinunciato al suo sogno di veicoli a guida autonoma vendendo la sua attività di veicoli autonomi ad Aurora Innovations, poco dopo che uno dei veicoli ha ucciso un pedone.

Modello AI che predice il crimine

Nel 2016, Northpointe (ora Equivant), un’azienda tecnologica che lavora alla creazione di software per il dipartimento di giustizia, ha lanciato uno strumento di intelligenza artificiale chiamato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). La COMPAS ha tenuto conto di fattori quali l’età, l’occupazione e i precedenti arresti per fornire punteggi di rischio di recidiva (la tendenza di un criminale condannato a recidivare), uno dei fattori presi in considerazione dai giudici nell’esprimere giudizi sugli individui. 


Tuttavia, la COMPAS si è rivelata prevenuta nei confronti degli imputati neri e li ha erroneamente etichettati come “ad alto rischio” rispetto alle loro controparti bianche. Nonostante il clamore pubblico sul modello, Northpointe ha difeso il suo software affermando che l’algoritmo funziona come previsto e sostenendo che l’ipotesi di COMPAS secondo cui i neri hanno un rischio di base più elevato di recidiva, che si riduce a un punteggio di rischio più alto, è valida. 

Di Kartik Wali da analyticsindiamag.com

Di ihal