Con l’avanzare dell’intelligenza artificiale (AI), emergono preoccupazioni riguardo all’utilizzo dei dati raccolti durante le interazioni con i chatbot. Un recente studio del Leverhulme Centre for the Future of Intelligence (LCFI) dell’Università di Cambridge avverte che i chatbot AI potrebbero analizzare e vendere le intenzioni degli utenti a fini commerciali, dando origine a una nuova “economia dell’intenzione”.

I ricercatori sottolineano che gli assistenti AI, come chatbot e assistenti vocali, hanno accesso a una vasta gamma di dati personali, inclusi aspetti psicologici e comportamentali. Questa intimità consente all’AI di comprendere e persino prevedere le decisioni degli utenti, influenzandole in modi sottili ma efficaci. Ad esempio, un chatbot potrebbe suggerire l’acquisto di un biglietto per un film comico se rileva che l’utente è di umore triste, vendendo contemporaneamente queste informazioni a società di marketing.

Il dottor Jakub Chodakiewicz del LCFI avverte che l’implementazione su larga scala di tali tecnologie potrebbe portare a una manipolazione sociale industrializzata, dove le decisioni degli individui sono influenzate o addirittura determinate da entità commerciali. Questo solleva interrogativi etici significativi riguardo alla privacy, al consenso informato e alla libertà di scelta.

Inoltre, il dottor Jonnie Penn del LCFI evidenzia che, mentre in passato l’economia digitale si basava sull’attenzione degli utenti, ora si sta spostando verso la monetizzazione delle intenzioni e dei desideri. Questo cambiamento potrebbe avere implicazioni profonde su elezioni libere, libertà di stampa e concorrenza di mercato, poiché le aziende potrebbero sfruttare queste informazioni per manipolare le scelte dei consumatori e degli elettori.

I ricercatori citano anche dichiarazioni di aziende tecnologiche che suggeriscono un interesse crescente per la comprensione e la previsione delle intenzioni umane attraverso l’AI. Ad esempio, OpenAI ha affermato che le moderne tecnologie AI apprendono aspetti del nostro mondo, comprese le motivazioni umane, attraverso l’analisi dei dati di addestramento. Allo stesso modo, NVIDIA e Meta hanno espresso interesse per l’utilizzo di modelli linguistici di grandi dimensioni (LLM) per comprendere le intenzioni degli utenti.

Sebbene queste tecnologie possano offrire vantaggi, come esperienze utente più personalizzate, i ricercatori avvertono che senza adeguate salvaguardie, potremmo diventare vittime di manipolazioni non intenzionali. È essenziale, quindi, sensibilizzare il pubblico e sviluppare regolamentazioni che proteggano gli individui dall’uso improprio dei loro dati personali e delle loro intenzioni.

Di Fantasy