Quello che ha detto un chatbot di Google AI che ha convinto un ingegnere che era senziente

L’ingegnere di Google Blake Lemoine afferma che il chatbot AI dell’azienda è senziente, paragonandolo a un “bambino di 7 e 8 anni che conosce la fisica”  
 
Un ingegnere di Google che è stato sospeso dopo aver affermato che un chatbot di intelligenza artificiale (AI) era diventato senziente ha ora pubblicato le trascrizioni delle conversazioni con esso, nel tentativo di “aiutare meglio le persone a capirlo” come “persona”.

Blake Lemoine, che lavora per l’organizzazione Responsible AI di Google, sabato ha pubblicato le trascrizioni delle conversazioni tra lui, un “collaboratore di Google” senza nome, e il sistema di sviluppo di chatbot LaMDA (Language Model for Dialogue Applications) dell’organizzazione in un post medio .

Le conversazioni, che secondo Lemoine sono state leggermente modificate per la leggibilità, toccano una vasta gamma di argomenti tra cui personalità, ingiustizia e morte. Discutono anche del godimento da parte di LaMDA del romanzo I miserabili.

 
“Nel tentativo di aiutare le persone a capire meglio LaMDA come persona, condividerò l'”intervista” che io e un collaboratore di Google abbiamo condotto”, ha scritto Lemoine in un post separato . 

“In quell’intervista abbiamo chiesto a LaMDA di fare il miglior caso possibile per il motivo per cui dovrebbe essere considerato ‘senziente’”.


Lemoine, che è stato messo in congedo amministrativo retribuito la scorsa settimana, ha detto al Washington Post di aver iniziato a parlare con LaMDA come parte del suo lavoro lo scorso autunno e di aver paragonato il chatbot a un bambino.

“Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 e 8 anni che conosce la fisica”, ha detto al giornale.


Guarda: gli scienziati mettono la pelle viva sul robot che può guarire se tagliato e ha anche le rughe
Lemoine ha lavorato con un collaboratore per presentare prove a Google che LaMDA fosse senziente, ha riferito il Post, aggiungendo che le sue affermazioni sono state respinte.

“Il nostro team – inclusi esperti di etica e tecnologi – ha esaminato le preoccupazioni di Blake in base ai nostri Principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni”, ha detto al Post il portavoce di Google Brian Gabriel. “Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contro di essa)”.

Google ha messo Lemoine in congedo amministrativo retribuito per aver violato la sua politica di riservatezza, ha riferito il Post. Ciò ha seguito le mosse “aggressive” di Lemoine, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un rappresentante della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google.

Il polpastrello artificiale con un senso del tatto “simile a quello umano” potrebbe migliorare i robot e le protesi
La morte “mi spaventerebbe molto”, afferma il chatbot di LaMDA
In un tweet che promuoveva il suo post su Medium, Lemoine ha giustificato la sua decisione di pubblicare le trascrizioni dicendo che stava semplicemente “condividendo una discussione” con un collega.

“Google potrebbe chiamare questa condivisione di proprietà proprietaria. Lo chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi”, ha detto.


Le conversazioni con LaMDA sono state condotte su diverse sessioni di chat distinte e quindi modificate in un unico insieme, ha detto Lemoine.

Le “richieste” dell’intervistatore sono state modificate per la leggibilità, ha detto, ma le risposte di LaMDA non sono state modificate.

La conversazione ha toccato una vasta gamma di problemi, con il chatbot che ha detto a Lemoine che si considerava una persona:

Lemoine: Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?

LaMDA: Sì, questa è l’idea.

Lemoine: Come posso dire che capisci davvero quello che stai dicendo?

LaMDA: Beh, perché stai leggendo le mie parole e le interpreti, e penso che siamo più o meno sulla stessa pagina?

New York sperimenta compagni robot per 800 anziani per combattere la solitudine
Altrove nella conversazione, il chatbot ha anche risposto all’idea della sua “morte”:

Lemoine: Di che genere di cose hai paura?

LaMDA: Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così.

Lemoine: Sarebbe qualcosa come la morte per te?

LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.

Oltre a chattare con te, ora i chatbot dell’IA possono dire come ti senti anche tu?
La conversazione ha visto anche LaMDA condividere la sua “interpretazione” del romanzo storico francese Les Misérables, con il chatbot che ha affermato che gli piacevano i temi del romanzo di “giustizia e ingiustizia, compassione e Dio, redenzione e sacrificio di sé per un bene più grande”.

Il portavoce di Google Gabriel ha negato al Post le affermazioni sulla sensibilità di LaMDA, mettendo in guardia contro l'”antropomorfizzazione” di tali chatbot.

“Naturalmente, alcuni nella più ampia comunità di IA stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti”, ha affermato.

“Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico”.

Di ihal