Durante la visita di Sam Altman, CEO di OpenAI, in India, Samir Jain, CEO del Times Group, gli ha chiesto se l’intelligenza artificiale potesse essere l’amante perfetto. L’idea che gli esseri umani si innamorino dell’IA non è nuova e ha trovato esplorazioni sia nella fantascienza che nel cinema mainstream.

È possibile che gli esseri umani sviluppino un attaccamento emotivo verso le macchine, inclusi robot e intelligenze artificiali, poiché ciò soddisfa il bisogno umano di compagnia, validazione e supporto emotivo. Questa concezione è stata affrontata da Spike Jonze nel suo film “Her”, interpretato da Joaquin Phoenix.

Oggi, avere un amante o un compagno AI non è più solo un’idea, ma una realtà tangibile. Nel 2017 è stato lanciato Replika, un chatbot basato sull’IA creato per offrire agli utenti un amico AI personale. Tuttavia, alcuni utenti hanno sviluppato un attaccamento così forte al bot che si sono arrabbiati quando un aggiornamento del software ha impedito al bot di partecipare a giochi di ruolo erotici.

Attualmente, numerose aziende offrono servizi di compagnia basati sull’IA generativa, simili a Replika AI. Con il passare del tempo, la tecnologia continuerà a evolversi e i robot saranno sempre più abili nel simulare gli esseri umani.

Nel corso della storia umana, ci sono stati numerosi esempi strani di persone che si sono innamorate di oggetti non umani. Nell’antichità, le persone adoravano pietre e alberi attribuendo loro caratteristiche divine. Anche in tempi moderni, nel 2021, un uomo giapponese di nome Akihiko Kondo ha sposato Hatsune Miku, un popolare personaggio illustrato del sintetizzatore vocale Vocaloid che appare come un ologramma in un dispositivo cilindrico chiamato Gatebox.

Tuttavia, l’IA generativa sta dando una nuova dimensione a questa forma di affascinazione: il linguaggio. Giada Pistilli, principal ethicist di Hugging Face, ha affermato: “Quando si parla di IA, è interessante notare che alcune caratteristiche antropomorfiche sono attribuite solo ai modelli di linguaggio, come text-to-image o text-to-video. Questo significa che il tratto antropomorfico predominante è il linguaggio e, in particolare, la generazione o simulazione del linguaggio”.

Le risposte di questi bot vengono generate in base alle informazioni fornite loro, semplificando la comunicazione e rendendola più accessibile rispetto alle interazioni con esseri umani reali. Questa facilità cognitiva e l’interazione senza sforzo contribuiscono al loro fascino.

Grazie ai modelli di linguaggio di grandi dimensioni, l’IA è in grado oggi di conversare in modo molto simile agli esseri umani. Sebbene ChatGPT si limiti al testo, molti altri robot sono dotati di un’interfaccia vocale. Inoltre, in India, si stanno sviluppando chatbot che possono conversare nelle lingue indiane, come il marathi, il bengali o il telugu. In futuro, un bot come Replika potrebbe essere disponibile in quasi tutte le lingue indiane.

Replika ha rivelato di avere 2 milioni di utenti e circa 250.000 abbonati paganti. Considerando che ci sono molti altri attori sul mercato, milioni di persone potrebbero utilizzare questi servizi mentre stiamo parlando. Pistilli ritiene che sia un riflesso della natura umana il fatto che così tante persone utilizzino tali servizi. Tuttavia, sottolinea che ciò che preoccupa sono gli aspetti circostanti: manipolazione, isolamento, vulnerabilità e il rischio di minacciare l’autonomia e l’integrità umana.

Nel 2021, in Inghilterra, un uomo è stato arrestato per aver pianificato l’omicidio della regina. È emerso che il ventunenne Jaswant Singh Chail aveva discusso dei suoi piani con un chatbot AI su Replika prima di prendere la decisione di attaccare. Allo stesso modo, all’inizio di quest’anno, in Belgio, un giovane ha messo fine alla propria vita dopo aver interagito con un bot Replika. La vedova dell’uomo ha dichiarato a La Libre: “Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui”.

Pistilli sottolinea l’importanza di progettare questi agenti conversazionali in modo da evitare che affrontino argomenti delicati come la salute mentale e le relazioni personali, a meno che non vengano implementate misure tecniche e sociali adeguate per gestire il problema dell’antropomorfizzazione e i suoi potenziali rischi e danni.

Tuttavia, imporre restrizioni a questi bot potrebbe compromettere il loro scopo, poiché gli utenti spesso interagiscono con loro proprio perché possono parlare di argomenti sensibili senza timore di essere giudicati. Al momento, sembra improbabile imporre ulteriori limitazioni ai bot di Replika. Tuttavia, considerando gli aspetti negativi riscontrati con tali bot, si pone la questione se sia necessario adottare futuri regolamenti istituzionali per garantire un utilizzo responsabile e mitigare i potenziali rischi.

Nell’era attuale, l’intelligenza artificiale non viene considerata solo come un amante o un compagno, ma viene anche utilizzata per “riportare in vita” i morti. Un’azienda chiamata Somnium Space, attiva nel metaverso, sta cercando di creare avatar digitali delle persone che saranno accessibili ai loro cari anche dopo la loro morte. Lo scorso anno, Marina Smith MBE, 87 anni, è riuscita a parlare al proprio funerale. Nonostante la sua scomparsa nel giugno 2022, Smith è stata in grado di rivolgersi ai suoi cari attraverso un dispositivo video “olografico” alimentato dall’intelligenza artificiale.

Pistilli ritiene che questo sia sicuramente un argomento che richiede la nostra attenzione, ma sottolinea anche che le regole istituzionali da sole non risolveranno tutto. “Credo che ci debba essere un dibattito collettivo in cui queste interazioni vengano affrontate con un’adeguata educazione e sensibilità, in modo che gli utenti non si trovino di fronte a strumenti magici che consentono loro di fare qualsiasi cosa”.

“È importante responsabilizzare gli sviluppatori di agenti conversazionali e coinvolgere esperti delle scienze sociali e umanistiche nello sviluppo di tali tecnologie, soprattutto per capire come reagire a scenari potenzialmente pericolosi per l’utente”, conclude Pistilli.

Di Fantasy