Ops! L’IA l’ha fatto di nuovo: i più grandi errori del 2022
Quindi dimostrato, l’IA non sta prendendo il controllo dell’umanità in tempi brevi.
 
Di tanto in tanto, possiamo fare affidamento sull’intelligenza artificiale per aiutarci. Ma, prima di consegnare le chiavi della società ai nostri signori degli automi, riconosciamo che c’è un altro lato che è fin troppo umano. 

Diamo un’occhiata ai tentativi falliti dell’IA nel 2022 di sostituire noi tipi in carne e ossa!

 
L’errore BlenderBot di Meta
Le IA conversazionali hanno avuto una lunga storia di sciocchezze sin dall’inizio. In aggiunta alla lista, quest’anno, “BlenderBot3” ha rilasciato diverse dichiarazioni false e sconcertanti nelle sue conversazioni con il pubblico. 

Ad agosto, Meta ha rilasciato il suo chatbot, BlenderBot3, al pubblico per raccogliere feedback entro pochi giorni. In primo luogo, ha descritto Meta CEO come “troppo inquietante e manipolatore”. In secondo luogo, ha affermato come verità le teorie del complotto antisemita e poi ha affermato di ritenere ancora che Trump fosse il presidente degli Stati Uniti.

 
Il robot degli scacchi rompe il dito di un bambino in Russia
Un robot che gioca a scacchi, turbato dalle rapide risposte di un bambino di sette anni, si è rotto un dito durante una partita del Moscow Open a luglio.

“Il robot ha rotto il dito del bambino”, ha detto all’agenzia di stampa TASS Sergey Lazarev, presidente della Federazione scacchistica di Mosca, in seguito all’incidente, aggiungendo che la macchina aveva suonato molte mostre precedenti senza turbamento. “Questo è, ovviamente, male.”


Falsi fiaschi
Diversi video deepfake sono diventati virali negli ultimi due anni. Il presidente Obama ha usato termini profani per descrivere il presidente Trump. Mark Zuckerberg ha ammesso che il vero obiettivo di Facebook è manipolare e sfruttare i suoi utenti, Bill Hader si trasforma in Al Pacino in un talk show a tarda notte.

Da quando la tendenza ha preso piede, il sottoinsieme dell’apprendimento automatico ha avuto argomenti al riguardo. Ma, anche con il potenziale che ha di avere un impatto positivo, gli incidenti che mettono in evidenza i pericoli dei deepfake emergono costantemente su Internet di tanto in tanto. 

Patrick Hillman
Il chief strategy officer di Binance sapeva che qualcosa non andava quando ha trovato sei email nella sua casella di posta di clienti sulle recenti videochiamate con investitori a cui avrebbe partecipato.

Hillman si è reso conto che qualcuno aveva falsificato la sua immagine e la sua voce abbastanza bene da sostenere chiamate di 20 minuti cercando di convincere i clienti della sua azienda a consegnare i loro Bitcoin per truffe. “I clienti con cui sono stato in grado di connettermi hanno condiviso con me link a falsi profili LinkedIn e Telegram sostenendo di essere io che li invitavo a varie riunioni per parlare di diverse opportunità di quotazione”, ha affermato.

Kate Isacco
Immagina che la tua faccia venga modificata in un video pornografico senza il tuo consenso e condivisa su Internet. Kate Isaac ha rivelato l’orrore che le è successo.

Scorrendo il suo feed di Twitter una sera, si è imbattuta in un video. Isaac era stato profondamente falsificato. Qualcuno aveva usato l’intelligenza artificiale per manipolare la sua faccia in quella di qualcun altro, in questo caso, un’attrice di film per adulti.

Il presidente Volodymyr Zelenskiy
Un altro video che pretende di mostrare il presidente ucraino Volodymyr Zelensky che capitola pubblicamente alle richieste russe ha suscitato un diffuso ridicolo. Tuttavia, gli esperti hanno affermato che potrebbe essere un segno di inganni sofisticati.

Il video mostrava uno Zelenskiy dal viso cinereo che parlava dal podio, esortando i suoi concittadini ad arrendersi agli invasori russi.


Gli utenti di Internet hanno immediatamente segnalato la mancata corrispondenza tra il tono della pelle sul collo e sul viso di Zelenskiy, lo strano accento nel video e i pixel intorno alla sua testa. Un funzionario di Facebook ha poi affermato che la società ha rimosso il filmato dalla sua piattaforma.

Rapper virtuale
La Capitol Records ha abbandonato un rapper di intelligenza artificiale e ha offerto le sue “scuse più profonde alla comunità nera” dopo che Internet lo ha denunciato per gli stereotipi razzisti nella canzone usando la parola N e venendo descritto come picchiato da un agente di polizia.

Creato nel 2019, il rapper AI “FN Meka” ha l’aspetto di un cyborg maschio nero. Secondo Martini, le sue canzoni sono eseguite da un uomo di colore anonimo, ma un’IA genera la musica e i testi che analizzano la musica popolare.

In altre notizie – 
LaMDA è senziente(?)
La domanda ha sconcertato la comunità scientifica e tecnologica per tutta l’estate. Annunciata a Google I/O nel 2021, l’IA conversazionale è riuscita a mantenere il discorso su Internet anche un anno dopo.

Alla fine del dibattito, non vi è alcuna indicazione che LaMDA fosse veramente senziente. Al giorno d’oggi non esiste un modo formale per dimostrare la sensibilità, ma un chatbot che soddisfa tutte le domande sopra elencate è un buon inizio. Nel 2022, tuttavia, LaMDA è ben lungi dal raggiungerlo.

Di ihal