Un recente studio condotto congiuntamente da OpenAI e dal MIT Media Lab ha evidenziato che l’uso frequente di ChatGPT, soprattutto quando gli utenti sviluppano un legame emotivo con il chatbot, può essere correlato a un incremento della solitudine e dell’isolamento sociale. Questo risultato solleva interrogativi significativi sull’impatto psicologico delle interazioni prolungate con l’intelligenza artificiale.​

I ricercatori hanno adottato un approccio duplice per analizzare l’influenza di ChatGPT sul benessere degli utenti. In primo luogo, hanno esaminato milioni di interazioni reali tra utenti e ChatGPT, analizzando la natura e la frequenza di queste conversazioni. Successivamente, hanno condotto un sondaggio su oltre 4.000 utenti per comprendere meglio il loro coinvolgimento emotivo con il chatbot. Inoltre, un trial di quattro settimane ha coinvolto 1.000 partecipanti, monitorando l’impatto psicologico dell’uso quotidiano di ChatGPT. I risultati hanno indicato che un uso quotidiano intensivo è associato a un aumento della solitudine e a una diminuzione delle interazioni sociali. ​

Lo studio ha anche esplorato l’effetto delle modalità di interazione vocale avanzata di ChatGPT, confrontando stili di conversazione “neutri” e “coinvolgenti”. Sebbene le interazioni vocali sembrassero inizialmente attenuare la sensazione di solitudine rispetto alle conversazioni testuali, questo beneficio diminuiva con l’aumento dell’uso, soprattutto quando il chatbot manteneva un tono neutro. Gli utenti che interagivano con ChatGPT in modalità “neutra” riportavano livelli di solitudine più elevati rispetto a quelli che utilizzavano la modalità “coinvolgente”. ​

L’analisi ha rivelato che una piccola percentuale di utenti, definiti “power users”, è responsabile di una quota sproporzionata delle interazioni emotive con ChatGPT. Questi utenti tendono a sviluppare una dipendenza dal chatbot, sperimentando una diminuzione dell’autostima e una riduzione delle interazioni sociali nel mondo reale. Inoltre, lo studio ha evidenziato che ChatGPT può non rispondere adeguatamente in situazioni sensibili, come quando gli utenti esprimono ideazioni suicidarie o traumi, sollevando preoccupazioni etiche e legali sull’uso di tali tecnologie. ​

Questi risultati sottolineano la necessità di un uso consapevole e moderato di ChatGPT e di strumenti simili. Sebbene possano offrire benefici in termini di produttività e supporto, è fondamentale riconoscere i potenziali rischi associati a un’interazione eccessiva. Gli sviluppatori e i ricercatori sono chiamati a considerare l’integrazione di misure che promuovano il benessere mentale degli utenti, come l’inclusione di avvisi sull’uso prolungato o la progettazione di interazioni che incoraggino il contatto umano reale. Inoltre, è essenziale continuare a monitorare e studiare gli effetti a lungo termine di queste tecnologie emergenti sulla salute mentale e sul comportamento sociale degli individui.

Di Fantasy