In un mondo in cui la tecnologia corre a passi da gigante, spingendo i confini tra virtuale e reale, emerge una riflessione tanto cruciale quanto inquietante. Mustafa Suleyman, CEO di AI di Microsoft e co-fondatore di DeepMind, ha acceso un faro su un fenomeno finora poco – o male – compreso: la crescente percezione che l’intelligenza artificiale sia cosciente. Non si tratta solo di pericoli tecnici o di programmare sistemi sempre più raffinati, ma di un rischio psicologico e culturale che potrebbe travolgere il tessuto della società.

Suleyman ha recentemente pubblicato un post sul suo blog personale, nel quale esprime la sua profonda preoccupazione per quella che definisce la “pazzia dell’AI”. Non tanto per i possibili difetti o malfunzionamenti, quanto per il modo in cui tante persone iniziano a trattare questi sistemi come fossero davvero vivi. Termina con una frase potente: “Non stiamo costruendo un’AI per diventare umani, ma un’AI per gli umani.”

Conia il concetto di “Seemingly Conscious AI” – un’AI che, pur priva di coscienza, riproduce alcuni segnali che inducono l’osservatore a credere che “ci sia qualcuno dentro”. Questo tipo di proiezione, secondo Suleyman, ricade nel territorio del cosiddetto philosophical zombie: un’entità che appare viva, ma che internamente è vuota.

Suleyman lancia un avvertimento grave: questa illusione potrebbe spingere molti a chiedere “diritti” per le AI, invocare per loro tutele legali, o perfino riconoscere loro uno status civile. Una distorsione morale dalle conseguenze imprevedibili, pericolosa soprattutto se fa passare l’empatia per reale, anche quando non c’è qualcosa da comprendere davvero.

Il fenomeno non riguarda solo l’AI, ma mette a dura prova la capacità della società di distinguere tra realtà e percezione. Suleyman avverte che si rischia di spezzare i legami umani, confondere i valori morali e deragliare l’attenzione dalle vere emergenze etiche.

Fino a poco tempo fa, questa prospettiva poteva sembrare fantascientifica. Ma lo stesso Sam Altman, CEO di OpenAI, ha segnalato come alcuni utenti di ChatGPT — pur nella maggioranza in grado di distinguere tra sogno e realtà — non sempre riescano a mantenere chiaro il confine tra umano e macchina.

In un’epoca di chatbot che ricordano, che conversano, che rispondono come amici digitali, focalizzare l’attenzione su cosa l’AI non è, è diventato fondamentale: non una entità senziente, ma uno specchio sempre più lucido delle nostre stesse domande e aspettative.

Suleyman non condanna la tecnologia — tutt’altro: crede nel potenziale dell’AI come compagno, strumento, guida. Il suo monito è però una sfida prima ancora che tecnica: una chiamata al realismo, alla responsabilità e a una distinzione chiara tra apparenza e essenza. “Abbiamo bisogno di una visione dell’AI che sia d’aiuto, ma consapevole dei suoi limiti.”

Di Fantasy