GPT-4chan è la peggiore IA di sempre?
Una lettera di condanna contro un singolo ricercatore indipendente sembra una caccia alla streghe
Lo YouTuber e il CTO di DeepJudge Yannic Kilchner hanno creato un chatbot AI chiamato “GPT-4chan”. Il bot è stato addestrato su tre anni di post da 4chan, il ripugnante cugino di Reddit.
Kilchner ha alimentato i thread dei bot dalla bacheca /pol/ politicamente scorretta, una bacheca di messaggi di 4chan nota per i contenuti razzisti, xenofobi e pieni di odio. Il bot ha acceso un acceso dibattito sui social media prima che andasse offline.
Di recente, la comunità dell’IA ha lanciato una petizione “Condannando il dispiegamento di GPT-4chan”. La petizione affermava: “Purtroppo, noi, la comunità dell’IA, attualmente non abbiamo norme comunitarie sul loro sviluppo e dispiegamento responsabili. Tuttavia, è essenziale che i membri della comunità dell’IA condannino pratiche chiaramente irresponsabili”.
GPT -4chan è un modello linguistico di grandi dimensioni formato su circa 134,5 milioni di post dalla bacheca anonima /pol/ politicamente scorretta. Kilchner ha sviluppato il modello mettendo a punto GPT-J con un set di dati precedentemente pubblicato per imitare gli utenti della scheda di 4chan. Ha pubblicato informazioni su GPT-4chan sul suo canale YouTube e l’ha definita la “peggiore IA di sempre”.
“Il modello era buono, in un senso terribile… Racchiudeva perfettamente il mix di offensività, nichilismo, trolling e profonda sfiducia nei confronti di qualsiasi informazione che permea la maggior parte dei post su /pol/.”
Ha affermato che il suo modello è più veritiero di qualsiasi altro modello GPT là fuori.
Kilchner ha affermato che il bot ha pubblicato circa 30.000 volte su 4chan prima di essere rimosso e pubblicato più di 1.500 volte in un arco di 24 ore.
Il modello è stato scaricato oltre 1.400 volte e i collegamenti erano disponibili su Twitter , Hacker News e Reddit. Kilchner ha persino creato un sito Web (non più accessibile). Ha anche pubblicato i codici su Github. Ha detto che l’idea di creare GPT-4chan gli è venuta dopo che Elon Musk ha affermato che il numero di bot su Twitter è molto più alto del numero ufficiale (5%).
Il modello è stata ospitata anche su Hugging Face.
Inizialmente, Hugging Face limitava l’accesso al modello prima di rimuovere del tutto l’accesso al modello. “Hugging Face come custode del modello (un nuovo concetto interessante) dovrebbe implementare un processo di revisione etica per determinare i danni che i modelli ospitati possono causare e bloccare modelli dannosi dietro accordi di approvazione/utilizzo. La scienza aperta e il software sono principi meravigliosi, ma devono essere bilanciati contro potenziali danni. La ricerca medica ha una forte cultura etica perché abbiamo una terribile storia di danni alle persone, di solito da gruppi privi di potere”, ha affermato la ricercatrice sulla sicurezza dell’IA, la dott.ssa Lauren Oakden-Rayner.
Finora, la petizione è stata firmata da più di 200 membri della comunità, tra cui Yoshua Bengio, professore ordinario all’Université de Montréal, Sam Bowman, professore assistente, NYU e Jonathan Berant, professore associato, Università di Tel Aviv.
“Il dispiegamento di GPT-4chan da parte di Yannic Kilcher è un chiaro esempio di pratica irresponsabile. GPT-4chan è un modello linguistico che Kilcher ha addestrato su oltre tre milioni di thread 4chan dal consiglio di politicamente scorretto /pol/, una comunità piena di discorsi razzisti, sessisti, xenofobi e pieni di odio che è stata collegata alla violenza dei suprematisti bianchi come il Sparatoria a Buffalo il mese scorso”, si legge nella petizione .
Tuttavia, non tutti sono d’accordo con la petizione. Dustin Tran, ricercatore senior di Google Brain , ha dichiarato: “Sono contrario all’implementazione illimitata di GPT-4chan. Tuttavia, una lettera di condanna contro un singolo ricercatore indipendente puzza di comportamento inutile del forcone. Sicuramente ci sono approcci più civili e attuabili”.
Due facce di una storia
Gran parte del dibattito sui social media con GPT-4chan è stato su come modelli dannosi come GPT-4chan possono devastare. La preoccupazione più grande era che GPT-4chan potesse spianare la strada allo sviluppo di più robot di intelligenza artificiale per diffondere messaggi razzisti e di odio online senza alcun intervento umano.
In secondo luogo, il modello potrebbe indirizzare le persone vulnerabili con messaggi dannosi che potrebbero portare all’autolesionismo. Inoltre, modelli come GPT-4chan potrebbero essere utilizzati come armi per diffondere disinformazione. Tuttavia, Kilchner ha difeso il suo modello sui social media sostenendo che non ci sono stati episodi documentati di GPT-4chan che hanno causato danni a nessuno.
Detto questo, ci sono due lati di una storia. Una sezione dei social media è venuta in difesa di Kilchner, sostenendo che il modello non è intrinsecamente dannoso e potrebbe essere usato per sempre. Ad esempio, il modello potrebbe essere sfruttato per combattere l’incitamento all’odio.
Di Pritam Bordoloi da analyticsindiamag.com