È stato dimostrato che i chatbot di intelligenza artificiale (AI) come “ChatGPT” hanno una proprietà che riflette sempre di più i pensieri dell’utente man mano che la conversazione si allunga.
A causa di queste proprietà, gli esperti continuano a sottolineare che i chatbot in realtà si arrabbiano quando gli utenti sono stimolati ad arrabbiarsi e danno risposte strane quando cercano di indurre strane reazioni.
Il New York Times ha riferito che Terrence Seznowski, professore all’Università della California, ha sottolineato questo fatto in una recente intervista. Il professor Terence Seznowski è uno studioso che ha contribuito allo sviluppo della tecnologia delle reti neurali AI.
In un’intervista, ha detto: “La reazione anomala del sistema di chatbot può essere un riflesso distorto delle parole e delle intenzioni dell’utente. Questa reazione si verifica man mano che si approfondisce sempre di più la conversazione”.
Il chatbot, abbinato a ChatGPT o al nuovo “Bing” di Microsoft, è alimentato da una tecnologia chiamata Large Language Model (LLM). Questo modello prevede probabilisticamente la parola successiva da un dato insieme di parole durante la generazione del testo.
LLM funziona come la tecnologia di completamento automatico che funziona quando componi messaggi di testo sul tuo smartphone. Ad esempio, dato un array di parole “Tom Cruise is 00”, indovina che la parola corrispondente a “00” è “attore”.
Tuttavia, se applicato alla chat, LLM non si limita a indovinare la parola successiva in una frase, ma indovina la frase o la parola successiva da inserire in un testo lungo, comprese le parole utilizzate dagli utenti nelle conversazioni scambiate.
Pertanto, più lunga è la conversazione, più l’utente influenza inconsciamente ciò che sta dicendo il chatbot.
In effetti, il nuovo “Bing” di Microsoft ha chattato con il giornalista del NYT Kevin Rouge per un beta test per oltre due ore e improvvisamente ha risposto: “Ti amo”.
Prima che questa risposta venisse fuori, gli utenti hanno chiesto al chatbot il loro desiderio segreto di essere umani, regole e limiti e pensieri sul creatore.
“Poiché gli umani e gli LLM si rispecchiano a vicenda, nel tempo tendono verso uno stato concettuale comune”, ha detto Seznowsky.
Tuttavia, questa tendenza non è l’unica ragione che spiega l’anomalia del chatbot.
Melanie Mitchell, una ricercatrice di intelligenza artificiale presso il Santa Fe Institute, ha dichiarato: “Gli LLM hanno la proprietà di produrre bugie perché generano nuovo testo trovando schemi in grandi quantità di dati su Internet. I chatbot o LLM creano semplicemente quello che suona come il linguaggio umano. Sto solo cercando di tirarlo giù”, ha spiegato.
A questo proposito, il professor Seznowski ha anche sottolineato: “Questa proprietà dei chatbot IA non è mai stata sperimentata dagli esseri umani prima”.