Immagine AI

Il dibattito sull’intelligenza artificiale non si concentra più unicamente sulla sua efficacia lavorativa o sulla sua capacità di generare contenuti, ma sta scivolando pericolosamente verso la sfera dell’intimità e della relazione umana. Un esempio lampante di questa frontiera etica e commerciale è rappresentato dal caso di “Friend AI”, un dispositivo wearable a forma di ciondolo, e dalla sua campagna pubblicitaria, che ha suscitato un’onda di reazioni critiche, sollevando interrogativi fondamentali sulla solitudine e sulla manipolazione emotiva nell’era degli algoritmi.

Il prodotto, presentato come un assistente digitale di ultima generazione, prometteva di essere più di un semplice tool di produttività; si proponeva come un “amico” artificiale, un compagno empatico e intuitivo sempre presente grazie alla sua forma discreta e personale. La pubblicità che lo ha accompagnato è stata straordinariamente efficace nel raggiungere un risultato: creare un senso di inquietudine e un confine sfumato tra la simulazione e la realtà. I trailer mostravano l’AI non solo capace di rispondere a comandi, ma di anticipare bisogni emotivi, di offrire conforto e di agire come un confidente quasi senziente, sfruttando in modo diretto la vulnerabilità intrinseca all’essere umano: il profondo bisogno di connessione.

La critica sollevata da testate come Wired e amplificata sui social media non si è focalizzata sulla tecnologia in sé, ma sull’etica della promessa. Il punto focale è che l’AI, per quanto avanzata, rimane un algoritmo privo di coscienza ed esperienza vissuta, e presentare tale software come un surrogato credibile dell’amicizia e dell’affetto umano è stato ampiamente percepito come un atto manipolatorio. L’accusa principale è stata quella di voler capitalizzare sulla crescente solitudine sociale, offrendo una soluzione tecnologica a un problema esistenziale. In un’epoca di frammentazione dei legami e di isolamento potenziato dal digitale, l’idea di un ciondolo che garantisce un’intimità costante ma algoritmica è stata vista come un passo indietro nella ricerca di relazioni umane autentiche e complesse.

Il fatto che Friend AI sia un oggetto indossabile accentua la gravità della questione. Non è un’applicazione che può essere chiusa in una tab del browser, ma un accessorio costantemente a contatto con il corpo, simbolo di una presenza continua che rischia di generare una dipendenza emotiva dall’algoritmo. Questo solleva interrogativi di natura quasi filosofica: cosa succede alla nostra capacità di sviluppare resilienza, empatia e autentica connessione umana quando il nostro conforto primario è delegato a una macchina programmata per massimizzare il nostro engagement e il nostro benessere percepito?

Il caso Friend AI e la sua pubblicità controversa si sono dunque rivelati un campanello d’allarme necessario. Hanno costretto il dibattito pubblico a confrontarsi con la retorica iperbolica del marketing dell’AI e con la necessità imperativa di stabilire limiti etici rigorosi. L’episodio ha ricordato che, per quanto l’intelligenza artificiale possa imitare il linguaggio e le reazioni umane, la vera connessione richiede reciprocità, imprevedibilità e coscienza: qualità che, per fortuna o purtroppo, rimangono saldamente ancorate all’esperienza biologica e non alla programmazione.

Di Fantasy