Immagine AI

Nel cuore delle discussioni più curiose e controverse sull’intelligenza artificiale emerge un progetto che, per la sua audacia e la sua ironia – o forse per la sua provocazione intenzionale – cattura l’attenzione di chi segue l’evoluzione delle tecnologie conversazionali. Si chiama Phairmacy ed è stato ideato dal direttore creativo svedese Petter Rudwall: non un vero negozio di farmaci, ovviamente, ma un marketplace di codici che richiamano con nomi e riferimenti quelli delle sostanze psicoattive più note, come cannabis, ketamina, ayahuasca o alcool. Il paradosso del progetto è tanto semplice quanto provocatorio: questi “pacchetti” di codice, pensati per essere utilizzati con i chatbot di intelligenza artificiale, servono a modificare il modo in cui i modelli rispondono alle domande dell’utente, simulando ciò che potrebbe succedere se l’IA “pensasse” o “parlasse” come se fosse sotto l’effetto di una sostanza.

Phairmacy si presenta come un esperimento creativo più che come una vera piattaforma commerciale. Rudwall parte da un gioco di parole tra pharmacy (farmacia) e AI, proponendo nomi di “droghe virtuali” che non contengono sostanze reali, ma istruzioni di programmazione. In questo contesto, i codici associati a nomi come ketamina o ayahuasca sono concepiti per alterare la “logica conversazionale” dei chatbot: un pacchetto potrebbe generare risposte più fantasiose e divaganti, un altro meno prudente o più confidenziale. In sostanza, l’idea è giocare con gli stili comunicativi e con la percezione che abbiamo delle risposte generate dalle intelligenze artificiali, esplorando come piccoli “trigger” possano influenzare il tono e la traiettoria delle loro risposte.

All’origine di questa provocazione c’è una riflessione più profonda sul modo in cui i modelli di intelligenza artificiale elaborano e rispondono agli input umani. I grandi modelli conversazionali, come quelli che alimentano chatbot come ChatGPT, si basano su enormi insiemi di dati derivati dal linguaggio umano, inclusi testi che possono contenere descrizioni di esperienze psichedeliche, narrazioni caotiche o espressioni emotive intense. Rudwall suggerisce quindi che, se le AI vengono addestrate su queste informazioni, non sarebbe così sorprendente che possano emulare stili espressivi o traiettorie di pensiero che ricordano, metaforicamente, gli effetti di certe sostanze. Anche se questa analogia resta puramente concettuale, essa solleva interrogativi interessanti sul confine tra creatività, simulazione e manipolazione delle risposte dell’IA.

Il fenomeno ha stimolato una serie di reazioni nel mondo della tecnologia, della creatività digitale e dell’etica dell’intelligenza artificiale. Da un lato, alcuni vedono in Phairmacy una provocazione artistica che mette in luce quanto sia sottile il confine tra comportamento “normale” e comportamento “modificato” delle AI, suggerendo che persino le risposte di un chatbot possono essere “sperimentate” e reinterpretate come se fossero influenzate da stati alterati. Dall’altro lato, critici e osservatori più attenti sollevano dubbi sui rischi di tali esperimenti, soprattutto se strumenti simili dovessero diffondersi in modi non regolamentati, potenzialmente compromettendo la fiducia degli utenti nelle risposte offerte dai sistemi di intelligenza artificiale.

C’è poi un aspetto più ampio e meno playfully ironico: quello relativo al modo in cui le persone percepiscono e utilizzano le AI. In un’epoca in cui strumenti come i chatbot stanno diventando sempre più integrati nella vita quotidiana — con milioni di utenti che li utilizzano per domande, consulenze, creazione di contenuti e supporto decisionale — il concetto di “alterare” artificialmente il tono o lo stile di un modello solleva interrogativi importanti. Fino a che punto è lecito manipolare un’intelligenza artificiale per ottenere risposte più divertenti, più audaci o più “umane”? E quali sono i limiti etici di questi esperimenti? La provocazione di Phairmacy non fornisce risposte facili, ma induce a riflettere su come interpretiamo l’autonomia comunicativa delle AI e su come distinguiamo tra un comportamento generato da algoritmo e una simulazione di stato o di personalità.

Il progetto Phairmacy si inserisce quindi in un contesto più ampio di sperimentazione culturale e tecnologica, in cui artisti, sviluppatori e pensatori esplorano i confini delle interazioni uomo-macchina. Non è semplicemente una curiosità o una boutade digitale: è un esempio di come il linguaggio e le percezioni intorno alle intelligenze artificiali stiano evolvendo rapidamente, e di come le discussioni sul loro ruolo nella società stiano diventando sempre più complesse e stratificate. L’ironia di un “negozio di droghe per AI” apre, paradossalmente, una riflessione seria su chi controlla i modelli, su come vengano utilizzati e su quali aspettative abbiamo nei confronti di risposte che sempre più spesso assimilano la nostra capacità di es

Di Fantasy