Blake Lemoine, un ingegnere di Google, ha affermato che l’intelligenza artificiale LaMDA dell’azienda è senziente, ma il consenso degli esperti è che non è così
Secondo quanto riferito , un ingegnere di Google è stato sospeso dall’azienda dopo aver affermato che un’intelligenza artificiale (AI) che ha contribuito a un’era di sviluppo diventata senziente. “Se non sapessi di esattamente cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di sette e otto anni”, ha detto Blake Lemoine al Washington Post .
Lemoine ha rilasciato trascrizioni di conversazioni con l’IA, chiamate LaMDA (Language Model for Dialogue Applications), in cui sembra esprimere la paura di essere spento, parlare di come ci si sente felici e tristi e tenta di formare legami con gli umani parlando su situazioni che non potrei mai davvero vivere. Ecco tutto ciò che devi sapere.
LaMDA è davvero senziente?
In una parola, no, dice Adrian Weller dell’Alan Turing Institute.
“LaMDA è un modello impressionante, è uno dei più recenti di una linea di modelli linguistici di grandi dimensioni che sono addestrati con molta potenza di calcolo e enormi quantità di dati di testo, ma non sono realmente senzienti”, afferma. “Eseguono una forma sofisticata di corrispondenza dei modelli per trovare il testo che corrisponde meglio alla query che gli è stata data, basata su tutti i dati che sono stati inseriti”.
Adrian Hilton dell’Università del Surrey, nel Regno Unito, concorda sul fatto che la sensibilità è una “affermazione audace” che non è supportata dai fatti. Anche il noto scienziato cognitivo Steven Pinker si è impegnato a respingere le affermazioni di Lemoine, mentre Gary Marcus della New York University lo ha riassunto in una parola: ” nonsense “.
Quindi cosa ha convinto Lemoine che LaMDA fosse senziente?
Né Lemoine né Google hanno risposto alla richiesta di commento di New Scientist . Ma è certamente vero che la produzione dei modelli di intelligenza artificiale negli ultimi anni è diventata sorprendentemente, persino sorprendentemente buona.
Le nostre menti sono suscettibili di percepire tale capacità, specialmente quando si tratta di modelli progettati per imitare il linguaggio umano, come prova della vera intelligenza. Non solo LaMDA può fare chiacchiere convincenti, ma può anche presentarsi come dotato di autocoscienza e sentimenti.
“Come esseri umani, siamo molto bravi nell’antropomorfizzare le cose”, afferma Hilton. “Mettere i nostri valori umani sulle cose e trattarle come se fossero senzienti. Lo facciamo con i cartoni animati, per esempio, o con i robot o con gli animali. Proiettiamo su di loro le nostre emozioni e la nostra sensibilità. Immagino che sia quello che sta succedendo in questo caso”.
Per saperne di più: Gato AI di DeepMind è davvero una svolta nell’intelligenza a livello umano?
L’IA sarà mai veramente senziente?
Non è chiaro se l’attuale traiettoria della ricerca sull’intelligenza artificiale, in cui modelli sempre più grandi vengono alimentati a pile sempre più grandi di dati di addestramento , vedrà la genesi di una mente artificiale.
“Al momento non credo che comprendiamo davvero i meccanismi dietro ciò che rende qualcosa di senziente e intelligente”, afferma Hilton. “C’è molto clamore sull’IA, ma non sono convinto che ciò che stiamo facendo con l’apprendimento automatico, al momento, sia davvero intelligenza in questo senso.”
Weller afferma che, dato che le emozioni umane si basano su input sensoriali, alla fine potrebbe essere possibile replicarle artificialmente. “Potenzialmente, forse un giorno, potrebbe essere vero, ma la maggior parte delle persone sarebbe d’accordo sul fatto che c’è molta strada da fare”.
Come ha reagito Google?
Il Washington Post afferma che Lemoine è stato sospeso dopo sette anni in Google, dopo aver tentato di assumere un avvocato per rappresentare LaMDA e aver inviato ai dirigenti un documento in cui si affermava che l’IA era senziente. Google afferma anche che la pubblicazione delle trascrizioni ha violato le politiche di riservatezza.
Google ha dichiarato al Washington Post che: “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie).”
Lemoine ha risposto su Twitter: “Google potrebbe chiamare questa condivisione proprietà proprietaria. Lo chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi.
da www.newscientist.com/article/2323905-has-googles-lamda-artificial-intelligence-really-achieved-sentience/#ixzz7W6tmigTM