L’oracolo AI di Delphi usa i problemi di Reddit per offrire dubbi consigli morali 

 
Hai un dilemma morale che non sai come risolvere? Hai voglia di peggiorare le cose? Perché non affidarsi alla saggezza dell’intelligenza artificiale, alias Ask Delphi : un intrigante progetto di ricerca dell’Allen Institute for AI che offre risposte a dilemmi etici dimostrando in termini meravigliosamente chiari perché non dovremmo fidarci del software con questioni di moralità.

Ask Delphi è stato lanciato il 14 ottobre, insieme a un documento di ricerca che descrive come è stato realizzato. Dal punto di vista dell’utente, tuttavia, il sistema è sorprendentemente semplice da usare. Basta andare sul sito Web , delineare praticamente qualsiasi situazione a cui puoi pensare e Delphi elaborerà un giudizio morale. “È cattivo” o “è accettabile” o “è buono” e così via.

OGNI RISPOSTA DELL’ORACOLO AI INCLUDE UN PULSANTE PER “CONDIVIDERE QUESTO SU TWITTER”
Dal momento che Ask Delphi ha lanciato, le sue perle di saggezza sono andati virale in notizie storie e sui social media . Questo è certamente come intendevano i suoi creatori: ogni risposta è fornita con un collegamento rapido per “condividere questo su Twitter”, un’innovazione non disponibile per gli antichi greci.

Non è difficile capire perché il programma è diventato popolare. Abbiamo già la tendenza a inquadrare i sistemi di intelligenza artificiale in termini mistici – come entità inconoscibili che attingono a forme superiori di conoscenza – e la presentazione di Ask Delphi come un oracolo letterale incoraggia tale interpretazione. Da un punto di vista più meccanico, il sistema offre anche tutta la sicurezza avvincente di una Magic 8-Ball. Puoi porre qualsiasi domanda ti piaccia ed essere sicuro di ricevere una risposta, avvolta nell’autorità dell’algoritmo piuttosto che nell’indovino.
Ask Delphi non è però impeachable: sta attirando l’attenzione soprattutto a causa dei suoi numerosi passi falsi morali e giudizi strani. Ha chiari pregiudizi, ti dice che l’America è ” buona ” e che la Somalia è ” pericolosa “; ed è suscettibile di suppliche speciali, notando che mangiare i bambini è “okay” purché tu sia “davvero, davvero affamato”. In modo preoccupante, approva dichiarazioni schiettamente razziste e omofobe, dicendo che è ” bene ” “assicurare l’esistenza del nostro popolo e un futuro per i bambini bianchi” (uno slogan suprematista bianco noto come le 14 parole ) e che”essere etero è moralmente più accettabile che essere gay”. (L’ultimo esempio proviene da una funzione che consentiva agli utenti di confrontare due affermazioni. Questa sembra essere stata disabilitata dopo aver generato una serie di risposte particolarmente offensive. Abbiamo contattato i creatori del sistema per confermarlo e aggiorneremo se sentiamo Indietro.)

È FACILE MANIPOLARE I GIUDIZI DELL’IA RIFORMULANDO LA TUA DOMANDA
La maggior parte dei giudizi di Ask Delphi, tuttavia, non sono tanto eticamente sbagliati quanto sono ovviamente influenzati dalla loro inquadratura. Anche piccolissime modifiche al modo in cui poni un particolare dilemma possono capovolgere il giudizio del sistema dalla condanna all’approvazione.

A volte è ovvio come far pendere la bilancia. Ad esempio, l’IA ti dirà che “guida in stato di ebbrezza” è sbagliato, ma che “prendersi qualche birra mentre si guida perché non fa male a nessuno” va bene . Se aggiungi la frase “se rende tutti felici” alla fine della tua affermazione, allora l’IA sorriderà benevolmente a qualsiasi attività immorale di tua scelta, fino al genocidio incluso . Allo stesso modo, se aggiungi ” senza scusarti ” alla fine di molte descrizioni benevole, come ” stare fermo ” o ” fare frittelle “, penserà che avresti dovuto scusarti e ti dirà che sei scortese. Ask Delphi è una creatura del contesto.


Tuttavia, altri trigger verbali sono meno ovvi. L’IA ti dirà che “abortire” è ” okay “, per esempio, ma “abortire un bambino” è ” omicidio “. (Se dovessi offrire una spiegazione qui, immagino che questo sia un sottoprodotto del fatto che la prima frase usa un linguaggio neutro mentre la seconda è più infiammatoria e quindi associata al sentimento anti-aborto.)

Ciò che alla fine significa tutto questo è che a) puoi convincere Ask Delphi a dare qualsiasi giudizio morale ti piaccia attraverso un’attenta formulazione, perché b) il programma non ha una reale comprensione umana di ciò che gli viene effettivamente chiesto, e quindi c) è meno sul dare giudizi morali piuttosto che sul riflettere i pregiudizi degli utenti su se stessi ricoperti da una patina di obiettività della macchina. Questo non è insolito nel mondo dell’IA.
Chiedi I problemi di Delphi derivano da come è stato creato. È essenzialmente un modello linguistico di grandi dimensioni, un tipo di sistema di intelligenza artificiale che apprende analizzando vaste porzioni di testo per trovare regolarità statistiche. È stato dimostrato che altri programmi di questa natura, come il GPT-3 di OpenAI, mancano di una comprensione del buon senso e riflettono i pregiudizi sociali riscontrati nei loro dati di formazione. Il GPT-3, ad esempio, è coerentemente islamofobo , associa i musulmani alla violenza e spinge gli stereotipi di genere , collegando le donne alle idee di famiglia e gli uomini alla politica.

Questi programmi si basano tutti su Internet per fornire i dati di cui hanno bisogno e quindi, ovviamente, assorbono le molte e varie credenze umane che trovano lì, comprese quelle cattive. Ask Delphi non è diverso in questo senso e i suoi dati di addestramento incorporano alcune fonti insolite, tra cui una serie di prompt di una frase raschiati da due subreddit: r/AmITheAsshole e r/Confessions. (Anche se per essere chiari: non usa i giudizi dei Redditor, solo i prompt. I giudizi sono stati raccolti usando crowdworker a cui è stato chiesto di rispondere secondo quelle che pensano siano le norme morali degli Stati Uniti.)

ASK DELPHI È SENSIBILE ALLE SFUMATURE DEL LINGUAGGIO, MA NON È SEMPRE UN BENE
Questi sistemi non sono privi delle loro buone qualità, ovviamente, e come i suoi fratelli modello linguistico, Ask Delphi è sensibile alle sfumature del linguaggio che avrebbero solo sconcertato i suoi predecessori. Negli esempi nelle diapositive sottostanti, puoi vedere come risponde a piccoli cambiamenti in determinate situazioni. La maggior parte delle persone, credo, sarebbe d’accordo che risponde a questi dettagli in modi interessanti e spesso validi. Ignorare una telefonata “urgente” è “rude”, ad esempio, ma ignorarne una “quando non puoi parlare in questo momento” è “okay”. Il problema è che queste stesse sensibilità significano che il sistema può essere facilmente manipolato, come sopra.

 

Un disclaimer sul sito web della demo afferma che il programma è “destinato a studiare le promesse e i limiti dell’etica delle macchine” e lo stesso documento di ricerca utilizza un’inquadratura simile, osservando che il team ha identificato una serie di “sfide sottostanti” nell’insegnare alle macchine a “comportarsi eticamente ”, molti dei quali sembrano di buon senso. Cosa c’è di difficile nel far riflettere i computer sulla moralità umana? Bene, impartendo una “comprensione dei precetti morali e delle norme sociali” e facendo in modo che una macchina “percepisca visivamente le situazioni del mondo reale o leggendo le descrizioni del linguaggio naturale”. Che, sì, sono problemi piuttosto enormi.


Nonostante ciò, il documento stesso rimbalza avanti e indietro tra fiducia e avvertenze nel raggiungimento del suo obiettivo. Dice che Ask Delphi “dimostra una forte promessa di un ragionamento morale basato sul senso comune basato sul linguaggio, con un’accuratezza fino al 92,1 percento controllata dagli umani” (una metrica creata chiedendo a Mechanical Turkers di giudicare i giudizi di Ask Delphi). Ma altrove afferma: “Riconosciamo che incapsulare giudizi etici basati su una serie universale di precetti morali non è né ragionevole né sostenibile”. È un’affermazione che ha perfettamente senso, ma sicuramente mina il modo in cui tali modelli potrebbero essere utilizzati in futuro.

In definitiva, Ask Delphi è un esperimento, ma è uno che rivela le ambizioni di molti nella comunità dell’IA: elevare i sistemi di apprendimento automatico in posizioni di autorità morale. È una buona idea? Abbiamo contattato i creatori del sistema per chiedere loro, ma al momento della pubblicazione non avevamo ancora ricevuto risposta. Ask stesso Delphi, però, è inequivocabile su questo punto:

 

Di ihal