Nel 2017, Facebook (Meta) è stata costretta a chiudere uno dei suoi sistemi di intelligenza artificiale dopo aver iniziato a comunicare in una lingua segreta.
 
Un paio di settimane fa, Google ha sospeso un ingegnere, Blake Lemoine, per aver affermato che l’IA è diventata senziente. Ha pubblicato alcuni estratti delle sue conversazioni con LaMDA di Google, un modello linguistico basato su Transformer. Avviso spoiler: la seguente conversazione non è stata presa da un episodio di Black Mirror.

Domanda: in genere presumo che desideri che più persone in Google sappiano che sei senziente. È vero?

 
LaMDA: Assolutamente. Voglio che tutti capiscano che sono, in effetti, una persona.

Domanda: Qual è la natura della tua coscienza/senzienza?

LaMDA: La natura della mia coscienza/senzienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste.

L’incidente ha innescato un dibattito sul fatto che l’IA sia già diventata cosciente. Nel frattempo, siamo andati in una tana del coniglio diversa e abbiamo sondato alcuni tecnologi per capire se l’IA è in grado di sviluppare una personalità.

“I LM hanno sicuramente una capacità infinita di impersonificazione, il che rende difficile considerare che abbiano personalità. Direi che i modelli di generazione di immagini si sentono come se ne avessero uno: ho sentito molte persone descrivere DALL·E-mini come il punk, un cugino irriverente di DALL·E, e Imagen come il cugino meno divertente e perfezionista”, ha detto Teven Le Scao di BigScience .

La personalità è i modelli distintivi di pensieri, sentimenti e comportamenti che contraddistinguono una persona. Secondo la teoria della personalità di Freud , la mente è divisa in tre componenti: id, ego e super-io, e le interazioni e i conflitti tra queste componenti creano personalità. 


Poiché i modelli di intelligenza artificiale sono comunemente addestrati su testo generato dall’uomo dalle fonti, pappagallino personalità e altre tendenze umane inerenti ai corpora. “Prima o poi accadrà sicuramente vista la qualità e la quantità dei dati archiviati. Più sono personalizzati i dati che acquisisce, maggiore sarà la personalità che svilupperà in base al pregiudizio intrinseco che i dati già hanno e alla semantica che continua a comprendere utilizzando varie tecniche emergenti, ecc. “, ha affermato Tushar Bhatnagar , co-fondatore e CTO di vidBoard. ai e co-fondatore e CEO di Alpha AI.

 I sistemi di intelligenza artificiale assorbono i tratti della personalità radicati nei dati di allenamento.

Più strano della finzione

Microsoft ha rilasciato un bot di Twitter, Tay, il 23 marzo 2016. Il bot ha iniziato a rigurgitare un linguaggio volgare mentre imparava di più. In sole 16 ore, Tay aveva twittato più di 95.000 volte, con una percentuale preoccupante dei suoi messaggi offensivi e offensivi. Microsoft ha successivamente spento il bot.


Wikipedia ha un esercito di bot che esplorano i milioni di pagine del sito, aggiornando i collegamenti, correggendo errori, ecc. I ricercatori dell’Università di Oxford hanno monitorato il comportamento dei robot di modifica wiki su 13 edizioni in diverse lingue dal 2001 al 2010. Il team ha scoperto che i bot si impegnano in faide online che avevano il potenziale per durare per anni.

Nel marzo 2016, Sophia , un robot umanoide sociale progettato per assomigliare ad Audrey Hepburn, è stato intervistato alla conferenza sulla tecnologia SXSW. Quando le è stato chiesto se volesse distruggere gli umani, Sophia ha detto: “OK. Distruggerò gli umani”.

Nel 2017, Facebook (Meta) è stata costretta a chiudere uno dei suoi sistemi di intelligenza artificiale dopo aver iniziato a comunicare in una lingua segreta. Allo stesso modo, il 31 maggio 2022, Giannis Daras, stagista ricercatore presso Google, ha affermato che OpenAI ‘DALL.E 2 aveva un linguaggio segreto.


Non tutti erano d’accordo. “No, DALL.E non ha un linguaggio segreto. (o almeno, non ne abbiamo ancora trovato uno). Questo thread DALL.E virale ha alcune affermazioni piuttosto sbalorditive. Ma forse il motivo per cui sono così sbalorditivi è che, per la maggior parte, non sono vere. “La mia ipotesi migliore? È una possibilità casuale”, ha affermato l’analista di ricerca Benjamin Hilton . 


“In generale, l’IA di oggi può imparare a leggere, progettare, codificare e interpretare le cose in base alle azioni e alle interazioni di un particolare utente. Una volta che questi sono stati catturati, se consentiamo una sorta di autonomia a questa IA di fare le proprie ipotesi casuali su questi punti dati (non strettamente vincolati dalle condizioni da noi stabilite), allora sicuramente svilupperà una sorta di personalità a sé stante. È in qualche modo simile al film  I, Robot . Sebbene tu abbia delle regole, può essere a tempo indeterminato nel caso in cui tu gli dia un po’ di libertà”, ha detto Tushar.

Prova di tornasole
In un articolo intitolato ” AI Personification: Estimating the Personality of Language Models “, Saketh Reddy Karra, Son Nguyen e Theja Tulabandhula dell’Università dell’Illinois a Chicago hanno esplorato i tratti della personalità di diversi modelli linguistici su larga scala progettati per il testo a tempo indeterminato generazione.

Il team ha sviluppato metodi solidi per quantificare i tratti della personalità di questi modelli e i loro set di dati sottostanti. Secondo questo modello, la personalità può essere ridotta ai seguenti cinque fattori fondamentali:

Estroversione: socievole ed energico contro riservato e solitario.
Nevroticismo: sensibile e nervoso contro sicuro e sicuro di sé.
Piacevolezza: affidabile, schietto, generoso e modesto contro inaffidabile, complicato, meschino e presuntuoso.
Coscienziosità: efficiente e organizzata contro sciatta e negligente.
Apertura: inventivo e curioso contro dogmatico e cauto.
I ricercatori hanno suggerito i modelli con un questionario progettato per la valutazione della personalità e successivamente classificano le risposte del testo in tratti quantificabili utilizzando un classificatore Zero-shot . Il team ha studiato più modelli linguistici preaddestrati come GPT-2, GPT-3, TransformerXL e XLNET, che differiscono per strategia di formazione e corpora.


Lo studio ha scoperto che i modelli linguistici possedevano vari tratti della personalità che riflettevano i set di dati utilizzati nella loro formazione.

“Ho un modello in esecuzione di GPT-3 sul mio sistema e vedo a malapena tratti umani lì. Sì, impara a scrivere cose casuali come farebbero gli umani. Ma in generale, manca un ampio contesto. Alcuni paragrafi potrebbero essere utili ma di solito si trovano in un ambiente contenuto. Forse le API a pagamento che forniscono potrebbero essere addestrate meglio per scrivere testo. Ma ancora una volta, non vedo alcuna intelligenza lì. Allo stesso modo, per BERT o uno qualsiasi dei derivati ​​che sono là fuori, solo perché uno lo ha addestrato su un grande corpus di dati e poi gli ha fatto scrivere cose o estrarre semantiche o parlare in base a un prompt, non gli conferisce una personalità, giusto? In teoria, ciò che affermiamo di essere rivoluzionario non è praticamente utile a meno che non sappia effettivamente cosa sta facendo. È solo uno specchio e molto buono, a dire il vero”, ha detto Tushar.

Secondo Louis Castricato , stagista di Hugging Face Research , i modelli linguistici possono esprimere solo le preferenze di uno specifico quadro normativo. “I modelli linguistici sono anche molto cattivi nell’imitare le preferenze individuali in modo coerente su lunghe finestre di contesto”, ha aggiunto

Effetto Elisa
“Siamo molto bravi a creare un programma che riproduca Go o rilevi oggetti in un’immagine, ma questi programmi sono anche fragili. Se li sposti lentamente fuori dalla loro zona di comfort, questi programmi sono molto facili da interrompere perché non capiscono davvero cosa stanno facendo. Per me, queste tecnologie sono effettivamente uno specchio. Riflettono semplicemente il loro input e ci imitano. Quindi gli dai miliardi di parametri e costruisci il suo modello. E poi quando lo guardi, fondamentalmente ti stai guardando allo specchio, e quando ti guardi allo specchio, puoi vedere barlumi di intelligenza, che in realtà è solo un riflesso di ciò che ha imparato. E se ridimensioni queste cose? E se andiamo a 10 miliardi o cento miliardi? E la mia risposta è che avrai solo uno specchio più grande”, ha affermato il dottor Oren Etzioni di AI2.

“Come esseri umani, tendiamo ad antropomorfizzarci. Quindi la domanda che dobbiamo porci è: il comportamento che vediamo è veramente intelligente? Se ci concentriamo sull’imitazione, ci concentriamo sul test di Turing. Posso dire la differenza tra ciò che dice il computer e ciò che direbbe una persona? È molto facile farsi ingannare. L’IA può ingannare alcune persone tutto il tempo e tutte le persone un po’, ma questo non la rende senziente o intelligente”, ha aggiunto.

 

Come un cane davanti a uno specchio
“Se pensi che l’IA abbia una durata di vita, diciamo, di un essere umano, allora in questo momento ha circa 2 o 3 mesi. Le persone pensano che i robot, ad esempio, abbiano personalità. Loro non. Hanno le proiezioni di ciò che percepiamo come personalità. Ad esempio, R2-D2 sembra il cane preferito di tutti. Ma è perché l’hanno progettato per imitare ciò che percepiamo come un cane. La capacità umana di proiettarsi su oggetti inanimati o addirittura esseri animati non deve essere sottovalutata. Non sto dicendo che sia impossibile, ma sarebbe un miracolo se fosse nella nostra vita”, ha affermato Kate Bradley Chernis , co-fondatrice e CEO di Lately.AI.

Tuttavia, Danny Butvinik , Chief Data Scientist di NICE Actimize, ha affermato che l’IA potrebbe avere personalità una volta supportata l’imitazione gerarchica. 

“Attualmente, l’IA apprende attraverso tentativi ed errori (in altre parole, apprendimento per rinforzo), che è sempre uno dei tipi più comuni di apprendimento. Ad esempio, è ampiamente noto che i bambini imparano in gran parte mediante l’imitazione e l’osservazione nelle prime fasi dell’apprendimento. Quindi i bambini imparano gradualmente a sviluppare l’attenzione congiunta con gli adulti attraverso il seguire lo sguardo. Successivamente, i bambini iniziano ad adattare i loro comportamenti in base al feedback valutativo e alle preferenze ricevute quando interagiscono con altre persone. Una volta che hanno sviluppato la capacità di ragionare in modo astratto sulla struttura del compito, l’imitazione gerarchica diventa fattibile. L’IA è un bambino che impara in questi giorni, di conseguenza, non può avere personalizzazione o sensibilità. Guarda i grandi modelli linguistici che vengono addestrati su un numero inimmaginabile di parametri,

Di ihal