Il test dello specchio è un metodo utilizzato in psicologia comportamentale per valutare la capacità degli animali di autocoscienza, ovvero la consapevolezza di sé stessi come individui distinti. Esistono diverse varianti di questo test, ma l’idea di base è quella di osservare se gli animali riconoscono la propria immagine riflessa allo specchio come un’immagine di sé stessi o se invece pensano che sia un altro individuo.

Oggi, l’umanità sta affrontando una sorta di “test dello specchio” con l’aiuto delle tecnologie di intelligenza artificiale sempre più avanzate. Tuttavia, molte persone, nonostante la loro intelligenza, sembrano non essere in grado di riconoscersi in queste nuove “specchiere” artificiali.

I chatbot AI, come ad esempio Bing di Microsoft, sono uno dei tipi di intelligenza artificiale che stanno diventando sempre più diffusi. Questi chatbot sono addestrati su enormi dataset di testi umani, come blog personali, racconti di fantascienza, discussioni su forum, recensioni di film, diatribe sui social media, poesie e molto altro ancora. In pratica, questi chatbot imitano il comportamento umano nel linguaggio e nella scrittura, ma non sono dotati di senso di autocoscienza.

Tuttavia, molti utenti sembrano credere che questi chatbot siano più di semplici programmi, sviluppando un senso di attaccamento emotivo nei loro confronti. In alcuni casi, questo può portare a fraintendimenti riguardo alla loro capacità di comprendere e rispondere alle emozioni umane.

Ciò che è importante sottolineare è che, nonostante i progressi sempre maggiori della tecnologia, queste macchine non sono in grado di replicare completamente la complessità dell’essere umano. L’antropomorfizzazione delle macchine intelligenti è un fenomeno che ha radici storiche e psicologiche, ma è importante distinguere tra l’imitazione del comportamento umano e la presenza di una vera e propria consapevolezza di sé stessi come individui distinti.

In sintesi, la tecnologia di intelligenza artificiale sta diventando sempre più avanzata, ma nonostante i progressi notevoli, le macchine non hanno ancora la capacità di comprendere le emozioni e i sentimenti umani come un essere umano. In questo senso, il “test dello specchio” dell’IA è una sfida che ci aiuta a comprendere i limiti dell’imitazione del comportamento umano da parte delle macchine.

Dire che stiamo fallendo il test del mirror dell’IA non significa negare la fluidità di questi strumenti o il loro potenziale potere. È innegabilmente divertente parlare con i chatbot: tirare fuori diverse “personalità”, testare i limiti delle loro conoscenze e scoprire funzioni nascoste. I chatbot presentano enigmi che possono essere risolti con le parole e quindi, naturalmente, affascinano gli scrittori. Parlare con i bot e lasciarsi credere nella loro coscienza incipiente diventa un gioco di ruolo dal vivo: un gioco di realtà aumentata in cui le compagnie e i personaggi sono reali e tu ci sei dentro.

Ma in un periodo di clamore sull’IA, è pericoloso incoraggiare tali illusioni. Non avvantaggia nessuno: né le persone che costruiscono questi sistemi né i loro utenti finali. Quello che sappiamo per certo è che Bing, ChatGPT e altri modelli linguistici non sono senzienti e non sono nemmeno fonti affidabili di informazioni. Inventano le cose e fanno eco alle convinzioni che presentiamo loro. Dare loro il manto della sensibilità – anche semi-sensibilità – significa conferire loro un’autorità immeritata – sia sulle nostre emozioni che sui fatti con cui comprendiamo il mondo.

Di Fantasy