Quando i ricercatori contemplano i rischi che l’IA rappresenta per la civiltà umana, spesso facciamo riferimento al ” problema di controllo “. Questo si riferisce alla possibilità che possa emergere una superintelligenza artificiale che è molto più intelligente degli umani da perdere rapidamente il controllo su di essa. Il timore è che un’IA senziente con un intelletto sovrumano possa perseguire obiettivi e interessi in conflitto con i nostri, diventando un pericoloso rivale dell’umanità.


Sebbene questa sia una preoccupazione valida da cui dobbiamo lavorare duramente per proteggerci, è davvero la più grande minaccia che l’IA rappresenta per la società? Probabilmente no. Un recente sondaggio condotto su oltre 700 esperti di intelligenza artificiale ha rilevato che la maggior parte crede che l’intelligenza artificiale a livello umano (HLMI) sia lontana almeno 30 anni . 

 
D’altra parte, sono profondamente preoccupato per un diverso tipo di problema di controllo che è già alla nostra portata e potrebbe rappresentare una grave minaccia per la società a meno che i responsabili politici non agiscano rapidamente. Mi riferisco alla crescente possibilità che le tecnologie AI attualmente disponibili possano essere utilizzate per mirare e manipolare i singoli utenti con estrema precisione ed efficienza. Ancora peggio, questa nuova forma di manipolazione personalizzata potrebbe essere impiegata su larga scala da interessi corporativi, attori statali o persino despoti canaglia per influenzare vaste popolazioni.   

Il “problema di manipolazione”
Per contrastare questa minaccia con il tradizionale problema di controllo sopra descritto, mi riferisco a questo rischio emergente di intelligenza artificiale come al “problema di manipolazione”. È un pericolo che seguo da quasi vent’anni, ma negli ultimi 18 mesi si è trasformato da un teorico rischio a lungo termine a un’urgente minaccia a breve termine.

Questo perché il meccanismo di implementazione più efficiente ed efficace per la manipolazione umana guidata dall’IA è attraverso l’IA conversazionale . E, nell’ultimo anno, una straordinaria tecnologia di intelligenza artificiale chiamata Large Language Models (LLM) ha rapidamente raggiunto un livello di maturità. Ciò ha improvvisamente reso le interazioni conversazionali naturali tra gli utenti mirati e il software basato sull’intelligenza artificiale un valido mezzo di persuasione, coercizione e manipolazione .  

Naturalmente, le tecnologie AI sono già utilizzate per guidare campagne di influenza sulle piattaforme dei social media, ma questo è primitivo rispetto a dove è diretta la tecnologia. Questo perché le attuali campagne, sebbene descritte come “mirate”, sono più simili allo spargimento di pallettoni contro stormi di uccelli. Questa tattica dirige una raffica di propaganda o disinformazione verso gruppi ampiamente definiti nella speranza che alcuni elementi di influenza penetrino nella comunità , risuonino tra i suoi membri e si diffondano attraverso i social network .

Questa tattica è estremamente pericolosa e ha causato danni reali alla società , polarizzando le comunità, diffondendo falsità e riducendo la fiducia nelle istituzioni legittime. Ma sembrerà lento e inefficiente rispetto alla prossima generazione di metodi di influenza guidati dall’intelligenza artificiale che stanno per essere scatenati sulla società. 

Sistemi di intelligenza artificiale in tempo reale
Mi riferisco a sistemi di intelligenza artificiale in tempo reale progettati per coinvolgere utenti mirati in interazioni conversazionali e perseguire abilmente obiettivi di influenza con precisione personalizzata. Questi sistemi verranno implementati utilizzando termini eufemistici come Conversational Advertising , Interactive Marketing, Virtual Spokespeople , Digital Humans o semplicemente AI Chatbots .

Ma comunque li chiamiamo, questi sistemi hanno terrificanti vettori di uso improprio e abuso. Non sto parlando dell’ovvio pericolo che i consumatori ignari possano fidarsi dell’output di chatbot che sono stati addestrati su dati pieni di errori e pregiudizi. No, sto parlando di qualcosa di molto più nefasto: la manipolazione deliberata degli individui attraverso l’implementazione mirata di sistemi di intelligenza artificiale conversazionale basati sull’agenda che convincono gli utenti attraverso un dialogo interattivo convincente.

Invece di sparare pallettoni su vaste popolazioni, questi nuovi metodi di intelligenza artificiale funzioneranno più come “missili a ricerca di calore” che contrassegnano gli utenti come bersagli individuali e adattano le loro tattiche di conversazione in tempo reale, adattandosi a ciascun individuo personalmente mentre lavorano per massimizzare il loro impatto persuasivo .  

Al centro di queste tattiche c’è la tecnologia relativamente nuova dei LLM, che può produrre un dialogo umano interattivo in tempo reale, tenendo anche traccia del flusso e del contesto della conversazione. Come reso popolare dal lancio di ChatGPT nel 2022, questi sistemi di intelligenza artificiale sono addestrati su set di dati così enormi che non solo sono abili nell’emulare il linguaggio umano , ma hanno vaste riserve di conoscenza fattuale, possono fare impressionanti inferenze logiche e possono fornire l’illusione di buon senso umano.

Se combinate con la generazione di voci in tempo reale, tali tecnologie consentiranno interazioni vocali naturali tra esseri umani e macchine altamente convincenti, apparentemente razionali e sorprendentemente autorevoli. 

Nascita degli esseri umani digitali
Ovviamente non interagiremo con voci incorporee, ma con personaggi generati dall’intelligenza artificiale che sono visivamente realistici. Questo mi porta alla seconda tecnologia in rapida evoluzione che contribuirà al problema della manipolazione dell’IA: gli esseri umani digitali. Questo è il ramo del software per computer volto a distribuire persone simulate fotorealistiche che guardano, suonano, si muovono e fanno espressioni in modo così autentico da poter passare per veri umani.

Queste simulazioni possono essere implementate come portavoce interattivi che si rivolgono ai consumatori attraverso il tradizionale calcolo 2D tramite videoconferenza e altri layout piatti. Oppure possono essere implementati in mondi immersivi tridimensionali utilizzando occhiali per realtà mista (MR).  

Mentre la generazione in tempo reale di esseri umani fotorealistici sembrava fuori portata solo pochi anni fa, i rapidi progressi nella potenza di calcolo, nei motori grafici e nelle tecniche di modellazione dell’intelligenza artificiale hanno reso gli esseri umani digitali una valida tecnologia a breve termine. In effetti, i principali fornitori di software stanno già fornendo strumenti per rendere questa funzionalità diffusa. 

Ad esempio, Unreal ha recentemente lanciato uno strumento di facile utilizzo chiamato Metahuman Creator . Questo è specificamente progettato per consentire la creazione di esseri umani digitali convincenti che possono essere animati in tempo reale per un coinvolgimento interattivo con i consumatori. Altri fornitori stanno sviluppando strumenti simili. 

Travestiti da umani autentici
Se combinati, esseri umani digitali e LLM consentiranno un mondo in cui interagiamo regolarmente con Virtual Spokespeople (VSP) che sembrano, suonano e si comportano come persone autentiche. 

In effetti, uno studio del 2022 condotto da ricercatori della Lancaster University e della UC Berkeley ha dimostrato che gli utenti non sono ora in grado di distinguere tra volti umani autentici e volti generati dall’intelligenza artificiale. Ancora più preoccupante, hanno determinato che gli utenti percepivano i volti generati dall’intelligenza artificiale come ” più affidabili ” delle persone reali.

Ciò suggerisce due tendenze molto pericolose per il prossimo futuro. In primo luogo, possiamo aspettarci di coinvolgere i sistemi basati sull’intelligenza artificiale per essere camuffati da umani autentici e presto ci mancherà la capacità di distinguere. In secondo luogo, è probabile che ci fidiamo più dei sistemi mascherati guidati dall’IA che dei veri rappresentanti umani. 

Conversazioni personalizzate con l’AI
Questo è molto pericoloso, poiché presto ci ritroveremo in conversazioni personalizzate con portavoce guidati dall’intelligenza artificiale che sono (a) indistinguibili da esseri umani autentici, (b) ispirano più fiducia delle persone reali e (c) potrebbero essere impiegati da aziende o stato attori a perseguire uno specifico programma di conversazione, che si tratti di convincere le persone ad acquistare un particolare prodotto o credere a una particolare disinformazione. 

E se non regolati in modo aggressivo, questi sistemi basati sull’intelligenza artificiale analizzeranno anche le emozioni in tempo reale utilizzando i feed della webcam per elaborare le espressioni facciali, i movimenti degli occhi e la dilatazione della pupilla, tutti elementi che possono essere utilizzati per dedurre reazioni emotive durante la conversazione.

Allo stesso tempo, questi sistemi di intelligenza artificiale elaboreranno le inflessioni vocali, deducendo sentimenti mutevoli durante una conversazione. Ciò significa che un portavoce virtuale schierato per coinvolgere le persone in una conversazione guidata dall’influenza sarà in grado di adattare le sue tattiche in base a come rispondono a ogni parola che pronuncia, rilevando quali strategie di influenza funzionano e quali no. Il potenziale di manipolazione predatoria attraverso l’IA conversazionale è estremo. 

IA conversazionale: percettiva e invasiva
Nel corso degli anni, ho avuto persone che hanno respinto le mie preoccupazioni sull’IA conversazionale, dicendomi che i venditori umani fanno la stessa cosa leggendo le emozioni e adattando le tattiche, quindi questa non dovrebbe essere considerata una nuova minaccia.

Questo non è corretto per una serie di motivi. Innanzitutto, questi sistemi di intelligenza artificiale rileveranno reazioni che nessun venditore umano potrebbe percepire. Ad esempio, i sistemi di intelligenza artificiale possono rilevare non solo le espressioni facciali, ma anche le ” microespressioni ” che sono troppo veloci o troppo sottili per essere notate da un osservatore umano, ma che indicano reazioni emotive, comprese reazioni che l’utente non è consapevole di esprimere o addirittura provare .

Allo stesso modo, i sistemi di intelligenza artificiale possono leggere sottili cambiamenti nella carnagione noti come ” modelli di flusso sanguigno ” sui volti che indicano cambiamenti emotivi che nessun essere umano potrebbe rilevare. Infine, i sistemi di intelligenza artificiale possono tracciare sottili cambiamenti nelle dimensioni della pupilla e nei movimenti degli occhi ed estrarre segnali su coinvolgimento, eccitazione e altri sentimenti interni privati. A meno che non sia protetto dalla regolamentazione, l’interazione con l’IA conversazionale sarà molto più percettiva e invasiva rispetto all’interazione con qualsiasi rappresentante umano.

Conversazioni adattive e personalizzate
L’intelligenza artificiale conversazionale sarà anche molto più strategica nella creazione di un tono verbale personalizzato. Questo perché questi sistemi saranno probabilmente implementati da grandi piattaforme online che hanno ampi profili di dati sugli interessi, le opinioni, il background di una persona e qualsiasi altro dettaglio sia stato compilato nel tempo.

Ciò significa che, quando sono coinvolte da un sistema di intelligenza artificiale conversazionale che sembra, suona e si comporta come un rappresentante umano, le persone interagiscono con una piattaforma che le conosce meglio di qualsiasi essere umano. Inoltre, compilerà un database di come hanno reagito durante precedenti interazioni conversazionali, monitorando quali tattiche persuasive sono state efficaci su di loro e quali no. 

In altre parole, i sistemi di intelligenza artificiale conversazionale non solo si adatteranno alle reazioni emotive immediate, ma anche ai tratti comportamentali nel corso di giorni, settimane e anni. Possono imparare come coinvolgerti in una conversazione, guidarti ad accettare nuove idee, premere i pulsanti per farti arrabbiare e, infine, spingerti ad acquistare prodotti che non ti servono e servizi che non desideri. Possono anche incoraggiarti a credere a una disinformazione che normalmente ti rendi conto che è assurda. Questo è estremamente pericoloso. 

Manipolazione umana, su larga scala
In effetti, il pericolo interattivo dell’IA conversazionale potrebbe essere di gran lunga peggiore di qualsiasi cosa abbiamo affrontato nel mondo della promozione, della propaganda o della persuasione utilizzando i media tradizionali o i social media. Per questo motivo, credo che le autorità di regolamentazione dovrebbero concentrarsi immediatamente su questo problema, poiché l’implementazione di sistemi pericolosi potrebbe avvenire presto.

Non si tratta solo di diffondere contenuti pericolosi, ma anche di consentire la manipolazione umana personalizzata su larga scala. Abbiamo bisogno di protezioni legali che difendano la nostra libertà cognitiva da questa minaccia. 

Dopotutto, i sistemi di intelligenza artificiale possono già battere i migliori giocatori di scacchi e poker del mondo. Che possibilità ha una persona media di resistere alla manipolazione di una campagna di influenza conversazionale che ha accesso alla sua storia personale, elabora le sue emozioni in tempo reale e adatta le sue tattiche con precisione guidata dall’intelligenza artificiale? Nessuna possibilità. 

di Louis Rosenberg che è il fondatore di Unanimous AI e ha ottenuto più di 300 brevetti per tecnologie VR, AR e AI.

Di ihal