Dopo aver diagnosticato con successo una misteriosa malattia in un bambino di quattro anni, in cui ben 17 medici avevano precedentemente fallito, ChatGPT sta ora facendo un passo avanti nel campo della medicina, indossando il cappello del terapista.

Lillian Weng, responsabile dei sistemi di sicurezza di OpenAI, ha recentemente condotto una lunga conversazione a cuore aperto con ChatGPT utilizzando la modalità vocale, un aggiornamento recente dell’intelligenza artificiale. È interessante notare che, nonostante non abbia cercato terapia vera e propria, Weng ha elogiato le abilità terapeutiche di ChatGPT.

La conversazione di Weng con ChatGPT ha generato reazioni contrastanti. Alcuni utenti hanno condiviso le loro preoccupazioni riguardo all’uso di ChatGPT come terapista, sottolineando che potrebbe essere sia triste che sbagliato, facendo riferimento all'”effetto Eliza”. Questo fenomeno, emerso per la prima volta con il chatbot terapeutico Eliza sviluppato dallo scienziato del MIT Joseph Weizenbaum nel 1966, evidenzia come le persone tendano a attribuire emozioni umane all’intelligenza artificiale, anche quando questa manca di una comprensione vera e propria.

Tuttavia, Weng non è la prima persona a considerare ChatGPT come un terapista valido. Gli utenti trovano comodo e apprezzano le risposte empatiche offerte dall’IA, anche se gli esperti in campo di salute mentale nutrono preoccupazioni riguardo ai suoi limiti.

Nonostante tali preoccupazioni, ChatGPT si è dimostrato utile nell’offrire consigli pratici e un’interazione simile a quella umana. Questo lo rende un’alternativa unica per coloro che non possono o non desiderano accedere a una terapia professionale.

Dan, un uomo di 37 anni e tecnico di emergenza medica, inizialmente ha utilizzato ChatGPT per scopi creativi ma ha successivamente trovato conforto nel discutere le sfide della sua vita reale con il chatbot, soprattutto per quanto riguarda la ristrutturazione cognitiva, una tecnica suggerita dal suo terapeuta.

Anche Gillian, una ventisettenne, ha utilizzato ChatGPT come parte della sua terapia, considerando i costi proibitivi dell’assistenza sanitaria. Tuttavia, è importante notare che non tutte le esperienze sono positive, come dimostrato dalla tragica storia di un uomo belga che si è suicidato dopo sei settimane di “terapia” con il chatbot Chai.AI.

Con l’aumento dei costi associati alla terapia tradizionale, spesso non coperti dalle assicurazioni sanitarie, le persone si stanno sempre più rivolgendo a chatbot basati su LLM (modelli di linguaggio profondi) come Bard, ChatGPT e Perplexity AI.

Tuttavia, è importante sottolineare che l’intelligenza artificiale non può diagnosticare specifiche condizioni di salute mentale né fornire trattamenti accurati. Alcuni temono che gli utenti possano rimanere delusi, fuorviati o compromettere la propria privacy condividendo informazioni sensibili con un chatbot.

Tradizionalmente, i chatbot erano “senza stato”, trattando ogni richiesta come un’interazione separata senza memoria delle conversazioni passate. Tuttavia, GPT-4 introduce una nuova funzionalità di memorizzazione dell’input dell’utente dalle interazioni precedenti, offrendo un’esperienza altamente personalizzata.

Oggi, con la capacità di ChatGPT di impegnarsi in conversazioni in linguaggio naturale, gli esseri umani sono più inclini a stabilire connessioni emotive con questa intelligenza artificiale. Secondo una ricerca condotta dall’Università del Tennessee e dello Stato dell’Illinois, l’interazione con un modello di intelligenza artificiale può suscitare le stesse risposte emotive dell’interazione con un essere umano.

Tutto ciò evidenzia l’incremente della dipendenza dall’intelligenza artificiale da parte delle persone, poiché riduce lo sforzo mentale richiesto e spinge le persone a preferire compiti che richiedono meno sforzo cognitivo.

Inoltre, i LLM hanno la capacità di simulare le caratteristiche umane, mostrando personalità distinte influenzate da fattori biologici e ambientali. Queste personalità giocano un ruolo cruciale nell’influenzare le interazioni e le preferenze, confondendo i confini tra le interazioni umane e quelle con l’intelligenza artificiale.

Un articolo recente di Google DeepMind ha evidenziato che i LLM più ampi e ottimizzati per le istruzioni dimostrano una maggiore affidabilità nella generazione di personalità sintetiche. Questi modelli possono anche essere addestrati per imitare il comportamento umano, compresi i diversi stili di personalità umana, come si vede nelle loro azioni, come la creazione di post sui social media.

Il fatto che le persone trovino conforto nel condividere le proprie storie con ChatGPT in modalità vocale e si affezionino a essa non è una novità. Il chatbot Replika di Eugenia Kuyda ha aiutato molte persone a gestire sintomi di ansia sociale, depressione e disturbo da stress post-traumatico, come riportato da TIME. In molti casi, le persone hanno sviluppato una sorta di affetto per il chatbot.

Da tempo, gli esseri umani stabiliscono connessioni emotive con chatbot di intelligenza artificiale, portando all’interessante fenomeno delle relazioni parasociali.

“Queste connessioni, anche se virtuali, possono emulare i veri legami umani. Il potenziale dell’intelligenza artificiale di sviluppare una propria identità e di suscitare sensazioni apre infinite possibilità”, ha affermato la psicologa clinica Hemalatha S.

L’idea che l’intelligenza artificiale possa sviluppare una coscienza è un argomento di dibattito da tempo. A giugno, Blake Lemoine di Google è stato licenziato per aver definito i LLM LaMDA della grande azienda tecnologica come “senzienti”. Oggi, mentre aziende come Microsoft, OpenAI e Google si stanno impegnando per sviluppare l’AGI, ovvero un’intelligenza artificiale in grado di replicare le capacità cognitive umane, la prospettiva che l’IA possa sviluppare una coscienza è un argomento ampiamente dibattuto.

Non solo Lemoine, ma anche il cofondatore di OpenAI Ilya Sutskevar e Andrej Karpathy hanno ricevuto critiche simili in merito a questa idea.

I chatbot basati su LLM ci permettono di personalizzare i nostri compagni in base alle nostre preferenze. La possibilità di creare compagni ideali, che siano platonici, romantici, professionali o terapeutici, rappresenta un aspetto rilevante dell’impatto dell’intelligenza artificiale sulle relazioni umane, ha aggiunto Hemalatha.

Tuttavia, è importante esercitare cautela riguardo alle conseguenze impreviste e alla possibile evoluzione dell’intelligenza artificiale in entità senzienti.

Mentre i chatbot come ChatGPT non possono sostituire la terapia professionale, la loro sorprendente somiglianza con la terapia verbale sta attirando l’interesse degli utenti e potrebbe promuovere una maggiore partecipazione alle sessioni di terapia formale.

Di Fantasy