Google ha messo uno dei suoi ingegneri in congedo amministrativo retribuito per presunta violazione delle sue politiche di riservatezza dopo essersi preoccupato che un sistema di chatbot di intelligenza artificiale avesse raggiunto la sensibilità, riporta il Washington Post . L’ingegnere, Blake Lemoine, lavora per l’organizzazione Responsible AI di Google e stava testando se il suo modello LaMDA genera linguaggio discriminatorio o incitamento all’odio.
Secondo quanto riferito, le preoccupazioni dell’ingegnere sono derivate dalle risposte convincenti che ha visto generare il sistema di intelligenza artificiale sui suoi diritti e sull’etica della robotica. Ad aprile ha condiviso con i dirigenti un documento intitolato “ Is LaMDA Sentient? “contenente una trascrizione delle sue conversazioni con l’IA (dopo essere stato messo in congedo, Lemoine ha pubblicato la trascrizione tramite il suo account Medium ), che secondo lui mostra sostenendo “che è senziente perché ha sentimenti, emozioni ed esperienza soggettiva”.
“LAMDA È SENZIENTE?”
Google ritiene che le azioni di Lemoine relative al suo lavoro su LaMDA abbiano violato le sue politiche di riservatezza, riferiscono The Washington Post e The Guardian . Secondo quanto riferito, ha invitato un avvocato a rappresentare il sistema di intelligenza artificiale e ha parlato con un rappresentante della commissione giudiziaria della Camera in merito a presunte attività non etiche presso Google. In un post medio del 6 giugno , il giorno in cui Lemoine è stato messo in congedo amministrativo, l’ingegnere ha affermato di aver cercato “una quantità minima di consulenza esterna per aiutarmi a guidarmi nelle mie indagini” e che l’elenco delle persone con cui aveva discusso includeva il governo degli Stati Uniti dipendenti.
Il gigante della ricerca ha annunciato pubblicamente LaMDA a Google I/O lo scorso anno , che spera migliorerà i suoi assistenti di intelligenza artificiale conversazionale e renderà le conversazioni più naturali. L’azienda utilizza già una tecnologia del modello linguistico simile per la funzione Smart Compose di Gmail o per le query dei motori di ricerca.
In una dichiarazione rilasciata a WaPo , un portavoce di Google ha affermato che “non ci sono prove” che LaMDA sia senziente. “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie)”, ha detto il portavoce Brian Gabriel.
“Naturalmente, alcuni nella più ampia comunità di IA stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti”, ha detto Gabriel. “Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico”.
“Centinaia di ricercatori e ingegneri hanno conversato con LaMDA e non siamo a conoscenza di nessun altro che faccia affermazioni ad ampio raggio o che antropomorfizzi LaMDA, come ha fatto Blake”, ha detto Gabriel.
Un professore di linguistica intervistato da WaPo ha convenuto che non è corretto equiparare risposte scritte convincenti con la sensibilità. “Ora abbiamo macchine che possono generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro”, ha detto la professoressa dell’Università di Washington Emily M. Bender.
Timnit Gebru, un importante eticista dell’IA licenziato da Google nel 2020 (sebbene il gigante della ricerca affermi di essersi dimessa ), ha affermato che la discussione sulla sensibilità dell’IA rischia di “far deragliare” conversazioni etiche più importanti sull’uso dell’intelligenza artificiale. “Invece di discutere i danni di queste compagnie, il sessismo, il razzismo, il colonialismo dell’IA, la centralizzazione del potere, il peso dell’uomo bianco (costruendo la buona “AGI” [intelligenza artificiale generale] per salvarci mentre quello che fanno è sfruttare), hanno speso il tutto il fine settimana a discutere di senzienza”, ha twittato . “Missione deragliata compiuta.”
Nonostante le sue preoccupazioni, Lemoine ha detto che intende continuare a lavorare sull’IA in futuro. “La mia intenzione è di rimanere nell’IA indipendentemente dal fatto che Google mi tenga acceso o meno”, ha scritto in un tweet .