Preparati per il tuo gemello malvagio
All’inizio di quest’anno un agghiacciante studio accademico è stato pubblicato dai ricercatori della Lancaster University e della UC Berkeley. Utilizzando una forma sofisticata di intelligenza artificiale nota come GAN (Generative Adversarial Network) hanno creato volti umani artificiali (cioè falsi fotorealistici) e hanno mostrato questi falsi a centinaia di soggetti umani insieme a un mix di volti reali. Hanno scoperto che questo tipo di tecnologia AI è diventata così efficace che noi umani non possiamo più distinguere tra persone reali e persone virtuali (o “veeple” come le chiamo io).
E quella non è stata la loro scoperta più spaventosa. Vedete, hanno anche chiesto ai soggetti del test di valutare l'”affidabilità” di ogni volto e hanno scoperto che i consumatori trovano che i volti generati dall’IA siano significativamente più affidabili dei volti reali. Come ho descritto in un recente articolo accademico , questo risultato rende estremamente probabile che gli inserzionisti utilizzino ampiamente le persone generate dall’intelligenza artificiale al posto di attori e modelli umani. Questo perché lavorare con persone virtuali sarà più economico e veloce e, se anche loro sono percepiti come più affidabili, saranno anche più persuasivi.
Questa è una direzione preoccupante per la stampa e gli annunci video, ma è decisamente terrificante quando guardiamo alle nuove forme di pubblicità che il metaverso scatenerà presto. Man mano che i consumatori trascorrono più tempo in mondi virtuali e aumentati, la pubblicità digitale si trasformerà da semplici immagini e video a persone virtuali guidate dall’intelligenza artificiale che ci coinvolgono in conversazioni promozionali .
Armati di un ampio database di informazioni personali sui nostri comportamenti e interessi, questi ” agenti conversazionali basati sull’intelligenza artificiale ” saranno sostenitori profondamente efficaci di qualsiasi messaggio che una terza parte stia pagando loro per fornire. E se questa tecnologia non è regolamentata , questi agenti di intelligenza artificiale tracceranno persino le nostre emozioni in tempo reale, monitorando le nostre espressioni facciali e le inflessioni vocali in modo che possano adattare la loro strategia di conversazione (cioè il loro tono di vendita ) per massimizzare il loro impatto persuasivo.
Anche se questo indica un metaverso in qualche modo distopico , questi avatar promozionali basati sull’intelligenza artificiale sarebbero un uso legittimo di persone virtuali. Ma che dire degli usi fraudolenti?
Questo mi porta al tema del furto di identità .
In un recente post sul blog Microsoft del vicepresidente esecutivo Charlie Bell, afferma che nel metaverso gli attacchi di frode e phishing potrebbero “provenire da un volto familiare, letteralmente, come un avatar che impersona il tuo collega”. Sono completamente d’accordo. In effetti, temo che la capacità di dirottare o duplicare avatar possa destabilizzare il nostro senso di identità, lasciandoci perennemente incerti se le persone con cui stiamo parlando siano persone che conosciamo o falsi di qualità.
La replica accurata dell’aspetto e del suono di una persona nel metaverso viene spesso definita creazione di un ” gemello digitale “. All’inizio di quest’anno, Jensen Haung, CEO di NVIDIA, ha tenuto un discorso programmatico utilizzando un gemello digitale da cartone animato. Ha affermato che la fedeltà aumenterà rapidamente nei prossimi anni, così come la capacità dei motori di intelligenza artificiale di controllare autonomamente il tuo avatar in modo da poter essere in più posti contemporaneamente. Sì, stanno arrivando i gemelli digitali.
Ecco perché dobbiamo prepararci per quelli che chiamo “gemelli malvagi” – repliche virtuali accurate dell’aspetto, del suono e dei modi di fare di te (o di persone che conosci e di cui ti fidi) che vengono utilizzati contro di te per scopi fraudolenti. Questa forma di furto di identità avverrà nel metaverso, poiché è una semplice fusione di tecnologie attuali sviluppate per deep-fake, emulazione vocale, gemellaggio digitale e avatar basati sull’intelligenza artificiale.
E i truffatori possono diventare piuttosto elaborati. Secondo Bell, i cattivi attori potrebbero attirarti in una finta banca virtuale, completa di un cassiere fraudolento che ti chiede le tue informazioni. Oppure i truffatori inclini allo spionaggio aziendale potrebbero invitarti a una falsa riunione in una sala conferenze che sembra proprio la sala conferenze virtuale che usi sempre. Da lì, cederai informazioni riservate a terze parti sconosciute senza nemmeno rendertene conto.
Personalmente, sospetto che gli impostori non avranno bisogno di ottenere questo elaborato. Dopotutto, incontrare un volto familiare che sembra, suona e si comporta come una persona che conosci è di per sé uno strumento potente. Ciò significa che le piattaforme metaverse necessitano di tecnologie di autenticazione altrettanto potenti che convalidino se stiamo interagendo con una persona reale (o il loro gemello autorizzato) e non un gemello malvagio che è stato distribuito in modo fraudolento per ingannarci. Se le piattaforme non affrontano questo problema all’inizio, il metaverso potrebbe crollare sotto una valanga di inganni e furti di identità.
Che tu stia aspettando con ansia il metaverso o meno, le principali piattaforme si stanno dirigendo verso di noi. E poiché le tecnologie della realtà virtuale e della realtà aumentata sono progettate per ingannare i sensi, queste piattaforme offuscheranno abilmente i confini tra il reale e il fabbricato. Se utilizzate da cattivi attori, tali capacità diventeranno pericolose rapidamente . Questo è il motivo per cui è nell’interesse di tutti, consumatori e aziende allo stesso modo, spingere per una maggiore sicurezza. L’alternativa sarà un metaverso pieno di frode dilagante, una conseguenza dalla quale potrebbe non riprendersi mai.