Google ha licenziato l’ ingegnere che ha affermato che la sua IA era senziente
Blake Lemoine, che sosteneva che il generatore di chatbot di Google LaMDA fosse senziente, è stato licenziato
 
Blake Lemoine, l’ingegnere di Google che ha detto al Washington Post che l’intelligenza artificiale della società era senziente, ha detto che la società lo ha licenziato venerdì.
Lemoine ha detto di aver ricevuto un’e-mail di risoluzione dalla società venerdì insieme a una richiesta per una videoconferenza. Ha chiesto di avere una terza parte presente alla riunione, ma ha detto che Google ha rifiutato. Lemoine dice che sta parlando con gli avvocati delle sue opzioni.
 
Lemoine ha lavorato per l’organizzazione Responsible AI di Google e, come parte del suo lavoro, ha iniziato a parlare con LaMDA, il sistema artificialmente intelligente dell’azienda per la creazione di chatbot, in autunno. È arrivato a credere che la tecnologia fosse senziente dopo essersi iscritto per testare se l’intelligenza artificiale potesse usare discorsi discriminatori o di odio.
L’ingegnere di Google che pensa che l’IA dell’azienda abbia preso vita
In una dichiarazione, il portavoce di Google Brian Gabriel ha affermato che la società prende sul serio lo sviluppo dell’IA e ha esaminato LaMDA 11 volte, oltre a pubblicare un documento di ricerca che descrive in dettaglio gli sforzi per uno sviluppo responsabile.
 
“Se un dipendente condivide le preoccupazioni sul nostro lavoro, come ha fatto Blake, le esaminiamo ampiamente”, ha aggiunto. “Abbiamo riscontrato che le affermazioni di Blake secondo cui LaMDA è senziente sono del tutto infondate e abbiamo lavorato per chiarirlo con lui per molti mesi”.
Ha attribuito le discussioni alla cultura aperta dell’azienda.
“È deplorevole che, nonostante il lungo impegno su questo argomento, Blake abbia comunque scelto di violare in modo persistente chiare politiche sull’occupazione e sulla sicurezza dei dati che includono la necessità di salvaguardare le informazioni sui prodotti”, ha aggiunto Gabriel. “Continueremo il nostro attento sviluppo di modelli linguistici e auguriamo il meglio a Blake”.
Il licenziamento di Lemoine è stato segnalato per la prima volta nella newsletter Big Technology .
 
Le interviste di Lemoine con LaMDA hanno suscitato un’ampia discussione sui recenti progressi nell’IA, sul fraintendimento pubblico su come funzionano questi sistemi e sulla responsabilità aziendale. Google ha precedentemente espulso i capi della divisione Ethical AI, Margaret Mitchell e Timnit Gebru , dopo aver avvertito dei rischi associati a questa tecnologia.
Google ha assunto Timnit Gebru per essere un critico esplicito dell’IA non etica. Poi è stata licenziata per questo.
LaMDA utilizza i modelli linguistici di grandi dimensioni più avanzati di Google, un tipo di intelligenza artificiale che riconosce e genera testo. Questi sistemi non possono comprendere il linguaggio o il significato, affermano i ricercatori. Ma possono produrre un discorso ingannevolmente simile a quello umano perché sono addestrati su enormi quantità di dati scansionati da Internet per prevedere la prossima parola più probabile in una frase.
 

Dopo che LaMDA ha parlato con Lemoine della personalità e dei suoi diritti, ha iniziato a indagare ulteriormente. Ad aprile, ha condiviso un documento Google con i massimi dirigenti chiamato “Is LaMDA Sentient?” che conteneva alcune delle sue conversazioni con LaMDA, dove affermava di essere senziente. Due dirigenti di Google hanno esaminato le sue affermazioni e le hanno respinte.
 
Lemoine era stato precedentemente messo in congedo amministrativo retribuito a giugno per aver violato la politica di riservatezza dell’azienda. L’ingegnere, che ha trascorso la maggior parte dei suoi sette anni in Google lavorando sulla ricerca proattiva, inclusi gli algoritmi di personalizzazione, ha affermato che sta potenzialmente considerando di avviare la sua società di intelligenza artificiale incentrata su videogiochi di narrazione collaborativa.

Di ihal