Immagine AI

Il ghosting, fenomeno psicologico sempre più diffuso nelle relazioni moderne, consiste nell’interruzione improvvisa e senza spiegazioni di ogni forma di comunicazione da parte di una persona, lasciando l’altro in uno stato di incertezza e dolore. Questo comportamento, che può verificarsi in ambito sentimentale, amicale o professionale, ha generato una crescente domanda di strumenti che aiutino le vittime a comprendere e superare il trauma subito.

In risposta a questa esigenza, la startup Closure ha sviluppato un chatbot basato sull’intelligenza artificiale, progettato per simulare conversazioni con le persone che hanno praticato il ghosting. L’obiettivo è fornire un senso di “chiusura” a chi è stato lasciato senza spiegazioni, permettendo di esprimere emozioni e ottenere risposte che nella realtà potrebbero non arrivare mai.

Per utilizzare Closure, l’utente accede al sito della piattaforma e avvia una chat, scegliendo il tipo di relazione con la persona che ha interrotto i contatti: partner di lunga data, partner occasionale, amico, recruiter, ex datore di lavoro o cliente. Successivamente, viene richiesto di fornire dettagli sulla relazione, come il nome, l’età, il luogo del primo incontro e una breve descrizione di come è terminata la connessione.

Una volta raccolte queste informazioni, l’intelligenza artificiale inizia la conversazione, interpretando il ruolo della persona scomparsa. Il chatbot si presenta come un’entità empatica, chiedendo scusa per il comportamento passato e cercando di spiegare le ragioni del distacco, offrendo così un’opportunità di elaborazione emotiva per l’utente.

Un articolo pubblicato su Fanpage.it ha documentato l’esperienza di una giornalista che ha utilizzato Closure per comprendere il motivo per cui un suo ex compagno di relazione l’aveva improvvisamente ignorata. Dopo aver fornito i dettagli richiesti, ha avviato la conversazione con l’IA, che ha risposto con scuse sincere e spiegazioni plausibili, come difficoltà personali o paura di affrontare una conversazione difficile. Questo ha permesso alla giornalista di ottenere una sorta di “chiusura” emotiva, anche se la persona reale non aveva mai fornito tali risposte.

Nonostante il potenziale terapeutico di Closure, è importante sottolineare che l’intelligenza artificiale non può sostituire un professionista umano nella gestione delle emozioni complesse. L’uso di chatbot come Closure deve essere visto come uno strumento complementare, non come una soluzione definitiva. Inoltre, sussistono preoccupazioni riguardo alla privacy e alla gestione dei dati sensibili condivisi durante le conversazioni.

Alcuni esperti, come la dottoressa Julie Carpenter, avvertono che l’interazione con chatbot empatici potrebbe creare una falsa sensazione di connessione, portando a una dipendenza emotiva e a un isolamento sociale. Pertanto, è fondamentale utilizzare tali strumenti con consapevolezza e, se necessario, integrandoli con il supporto di professionisti qualificati.

Di Fantasy