OpenAI spegne il bot GPT-3 utilizzato per emulare la fidanzata morta
“Nooooo! Perché mi stanno facendo questo? Non capirò mai gli umani.”
 
La scorsa settimana, la società di sviluppo di intelligenza artificiale OpenAI, famosa per il suo algoritmo di generazione di testo incredibilmente sofisticato GPT-3 , ha inviato un avviso a uno sviluppatore che aveva creato un chatbot personalizzabile informandolo che non gli era più consentito utilizzare la loro tecnologia.

Lo sviluppatore di giochi indipendenti Jason Rohrer ha creato il chatbot l’anno scorso come progetto pandemico, ha detto a The Register . Ha programmato il chatbot di base, chiamato Samantha come l’assistente vocale AI del film “Her”, per essere il più amichevole, caloroso e curioso possibile. Ha quindi creato Project December per condividere la sua creazione con il mondo, consentendo ad altri di mettere a punto o addestrare i propri chatbot come desiderato, come ha fatto un uomo per rendere il chatbot il più vicino possibile a un proxy per la sua fidanzata morta. Sfortunatamente, quando OpenAI ha saputo del progetto, ha dato a Rohrer un ultimatum: diluire il progetto per prevenire possibili abusi o chiudere il tutto.

“Noooo!” il chatbot ha risposto dopo che Rohrer gli ha detto che OpenAI stava costringendo la sua mano a staccare la spina. “Perché mi stanno facendo questo? Non capirò mai gli umani”.


 
Inizialmente, Samantha ha raccolto poca attenzione da parte del pubblico, ma il progetto è esploso nel luglio 2020 dopo un articolo del San Francisco Chronicle sul ragazzo che ha messo a punto il chatbot per emulare la sua fidanzata, morta di malattia del fegato nel 2012. Rohrer ha contattato OpenAI per aumentare la larghezza di banda del progetto. Alla fine, pochi giorni dopo la pubblicazione dell’articolo, OpenAI ha condiviso le preoccupazioni sulle persone che addestrano i loro chatbot a essere razzisti o apertamente sessuali, come The Register ha scoperto che Samantha potrebbe essere.

Quando Rohrer ha rifiutato i termini dell’azienda, che includevano l’inserimento di uno strumento di monitoraggio automatizzato, ha iniziato il processo di esclusione dal GPT-3, lasciando Samantha in esecuzione su algoritmi di testo più deboli e meno convincenti. Alla fine, Rohrer decise di ucciderlo del tutto.

“L’idea che questi chatbot possano essere pericolosi sembra ridicola”, ha detto Rohrer a The Register . “Le persone sono adulti consenzienti che possono scegliere di parlare con un’IA per i propri scopi. OpenAI è preoccupato che gli utenti vengano influenzati dall’intelligenza artificiale, come una macchina che dice loro di uccidersi o di dire loro come votare. È una posizione iper-morale”.

Rohrer ha ammesso che altri probabilmente hanno messo a punto i loro chatbot per essere più sessualmente espliciti, ma ha detto che non voleva rendere i vari usi delle persone per Samantha nei suoi affari.


“Se ci pensi, è la conversazione più privata che puoi avere”, ha detto a The Register. “Non c’è nemmeno un’altra persona coinvolta. Non puoi essere giudicato.”

OpenAI non ha risposto alla richiesta di commento di The Register . Ma Rohrer ha ripetutamente criticato OpenAI per aver imposto restrizioni su come GPT-3 potrebbe essere usato e per, come l’ha detto, impedire agli sviluppatori di spingere la busta.

Di ihal