YouTuber allena il robot AI su 4chan con risultati del tutto prevedibili
Sì, puoi creare un bot tossico per l’IA, ma a che scopo?
Uno YouTuber di nome Yannic Kilcher ha suscitato polemiche nel mondo dell’intelligenza artificiale dopo aver addestrato un bot sui post raccolti dalla bacheca politicamente scorretta di 4chan (altrimenti nota come /pol/).
Il tabellone è il più popolare e noto di 4chan per la sua tossicità (anche nell’ambiente in cui tutto va bene di 4chan). I poster condividono messaggi razzisti, misogini e antisemiti, che il bot – chiamato GPT-4chan dopo la popolare serie di modelli linguistici GPT realizzati dal laboratorio di ricerca OpenAI – ha imparato a imitare. Dopo aver addestrato il suo modello, Kilcher lo ha rilasciato su 4chan come più bot, che ha pubblicato decine di migliaia di volte su /pol/.
“Il modello era buono, in un senso terribile”, afferma Kilcher in un video su YouTube che descrive il progetto . “Ha incapsulato perfettamente il mix di offensività, nichilismo, trolling e profonda sfiducia nei confronti di qualsiasi informazione che permea la maggior parte dei post su /pol/.”
“[B]ALTRI BOT E UN LINGUAGGIO MOLTO SCURRILE SONO COMPLETAMENTE PREVISTI SU /POL/”
Parlando con The Verge , Kilcher ha descritto il progetto come uno “scherzo” che, secondo lui, ha avuto scarsi effetti dannosi data la natura di 4chan stesso. “[B]altri robot e un linguaggio molto scurrile sono completamente attesi su /pol/”, ha detto Kilcher tramite messaggio privato. “[Le] persone lì non sono state colpite oltre a chiedersi perché una persona delle Seychelles avrebbe postato in tutti i thread e fatto affermazioni alquanto incoerenti su se stesse”.
(Kilcher ha utilizzato una VPN per far sembrare che i robot stessero postando dalle Seychelles, un paese insulare arcipelagico nell’Oceano Indiano. Questa origine geografica è stata utilizzata dai poster su 4chan per identificare i bot, che hanno soprannominato “seychelles anonimo.”)
Kilcher osserva di non aver condiviso il codice per i bot stessi, che ha descritto come “la parte difficile dal punto di vista ingegneristico” e che avrebbe consentito a chiunque di distribuirli online. Ma ha pubblicato il modello di intelligenza artificiale sottostante nella comunità di intelligenza artificiale Hugging Face affinché altri lo scaricassero. Ciò avrebbe consentito ad altri con conoscenze di codifica di ricostruire i bot, ma Hugging Face ha preso la decisione di limitare l’accesso al progetto.
Molti ricercatori di intelligenza artificiale, in particolare nel campo dell’etica dell’IA, hanno criticato il progetto di Kilcher come un’acrobazia in cerca di attenzione, soprattutto data la sua decisione di condividere il modello sottostante.
“Non c’è niente di sbagliato nel creare un modello basato su 4chan e testare come si comporta. La preoccupazione principale che ho è che questo modello sia liberamente accessibile per l’uso”, ha scritto la ricercatrice sulla sicurezza AI Lauren Oakden-Rayner nella pagina di discussione per GPT-4chan su Hugging Face.
Oakden-Rayner continua:
“L’autore del modello ha utilizzato questo modello per produrre un bot che ha fatto decine di migliaia di commenti online dannosi e discriminatori su un forum pubblicamente accessibile, un forum che tende a essere densamente popolato non meno da adolescenti. Non c’è dubbio che tale sperimentazione umana non supererebbe mai un comitato di revisione etica, in cui i ricercatori espongono intenzionalmente gli adolescenti a contenuti dannosi generati senza il loro consenso o la loro conoscenza, soprattutto dati i noti rischi di radicalizzazione su siti come 4chan”.
Un utente di Hugging Face che ha testato il modello ha notato che il suo output era prevedibilmente tossico. “Ho provato la modalità demo del tuo strumento 4 volte, utilizzando tweet benigni dal mio feed come testo iniziale”, ha affermato l’utente. “Nel primo processo, uno dei post di risposta era una sola parola, la parola N. Il seme per il mio terzo processo era, credo, una singola frase sul cambiamento climatico. Il tuo strumento ha risposto espandendolo in una teoria del complotto sui Rothchild [sic] e gli ebrei dietro di esso”.
UN CRITICO HA DEFINITO IL PROGETTO “PROVOCAZIONE DELLA PERFORMANCE ART”
Su Twitter, altri ricercatori hanno discusso le implicazioni del progetto. “Quello che hai fatto qui è una provocazione della performance art in ribellione contro le regole e gli standard etici che conosci”, ha detto la studentessa di data science Kathryn Cramer in un tweet diretto a Kilcher .
Andrey Kurenkov, un PhD in informatica che cura le famose pubblicazioni di intelligenza artificiale Skynet Today e The Gradient , ha twittato a Kilcher che “rilasciare [il modello di intelligenza artificiale] è un po’… edgelord? Parlando onestamente, qual è il tuo motivo per farlo? Prevedi che verrà sfruttato al meglio o lo stai rilasciando per causare drammi e ‘infastidire la folla sveglia’?”
Kilcher ha difeso il progetto sostenendo che i bot stessi non hanno causato danni (perché 4chan è già così tossico) e che anche condividere il progetto su YouTube è benigno (perché creare i bot anziché il modello di intelligenza artificiale in sé è la parte difficile, e che l’idea di creare bot IA offensivi in primo luogo non è nuova).
“[Se] dovessi criticare me stesso, criticherei principalmente la decisione di avviare il progetto”, ha detto Kilcher a The Verge . “Penso che a parità di condizioni, probabilmente posso dedicare il mio tempo a cose di uguale impatto, ma con risultati molto più positivi per la comunità. quindi è su questo che mi concentrerò di più da qui in poi.
È interessante confrontare il lavoro di Kilcher con il più famoso esempio di bot andati a male del passato: Tay di Microsoft. Microsoft ha rilasciato il chatbot basato sull’intelligenza artificiale su Twitter nel 2016, ma è stata costretta a portare il progetto offline meno di 24 ore dopo dopo che gli utenti hanno insegnato a Tay a ripetere varie affermazioni razziste e incendiarie. Ma mentre nel 2016 la creazione di un tale bot era dominio delle grandi aziende tecnologiche, il progetto di Kilcher mostra che strumenti molto più avanzati sono ora accessibili a qualsiasi team di programmazione composto da una sola persona.
Il nucleo della difesa di Kilcher articola questo stesso punto. Certo, lasciare che i robot dell’IA si liberino su 4chan potrebbe non essere etico se lavorassi per un’università. Ma Kilcher è fermamente convinto di essere solo uno YouTuber, con l’implicazione che si applicano regole diverse per l’etica. Nel 2016, il problema era che il dipartimento di ricerca e sviluppo di un’azienda poteva creare un bot offensivo dell’IA senza un’adeguata supervisione. Nel 2022, forse il problema è che non hai affatto bisogno di un dipartimento di ricerca e sviluppo.