Ci siamo imbattuti in un deepfake veramente realistico. All’inizio non era chiaro, dato che il profilo sembrava legittimo e coinvolto sui social media. Tuttavia, dopo aver visto la stessa foto inquietante generata dall’IA del Dr. Lance B. Eliot in diversi siti web, era evidente che non si trattava di una persona reale.

Eliot ha oltre 11.000 follower su LinkedIn, ed è collegato con diverse persone che hanno migliaia di follower su LinkedIn e decenni di esperienza nell’IA in ruoli che spaziano da investitori ad analisti, keynote speaker, editorialisti e CEO. Nonostante i suoi post ripetitivi che portano ai suoi articoli su Forbes, i membri di LinkedIn interagiscono con Eliot.

I contenuti di Eliot su Forbes sono generati dall’IA e sono molto tecnici, con titoli quasi identici che vengono pubblicati ogni uno o tre giorni. Tuttavia, Forbes limita i lettori a cinque storie gratuite al mese, dopodiché richiede un abbonamento a pagamento. La situazione si complica ora che Forbes è in vendita per circa 800 milioni di dollari.

Il contenuto di Eliot è anche disponibile dietro un paywall che addebita $ 5 al mese. Inoltre, Eliot ha un sottile profilo su Cision, Muckrack e Sam Whitmore Media Survey, servizi di media a pagamento che sono costosi e su cui fa affidamento la stragrande maggioranza dei professionisti delle pubbliche relazioni.

Eliot vende anche libri su Amazon, recuperando poco più di $ 4 per titolo, anche se Walmart li offre a un prezzo inferiore. I libri di Eliot su Thriftbooks sono venduti per circa $ 27, che è un affare rispetto al prezzo di $ 28 su Porchlight. Tuttavia, alcune recensioni di utenti delusi definiscono il contenuto ripetitivo.

Dopo aver visitato il profilo di Eliot sulla Stanford University, si nota una differenza nel colore del logo rispetto al sito Web ufficiale di Stanford. Inoltre, uno dei documenti accademici di Eliot pubblicato su ArXiv di Cornell aveva un logo simile a quello di Cornell ma con una leggera modifica, e il contenuto era pieno di errori di battitura e contenuti generati dall’IA di bassa qualità presentati in un formato standard per i documenti di ricerca accademica. Inoltre, il documento citava Oliver Wendell Holmes, che, apparentemente, pubblicò in un’edizione del 1897 della Harvard Law Review, tre anni dopo la sua morte.

Per coloro che non sono interessati ai contenuti di Eliot, ci sono i suoi podcast, in cui un bot pronuncia un gergo senza senso. Inoltre, l’URL pubblicato accanto ai podcast di Eliot promuove il suo sito Web sulle auto a guida autonoma, che inizialmente ha portato a un vicolo cieco. Un aggiornamento sullo stesso collegamento ha portato a Techbrium, uno dei falsi siti Web del datore di lavoro di Eliot.

Ciò che è sorprendente è che Eliot sia in grado di fare tutto questo e di trovare ancora del tempo per partecipare ai vertici della leadership esecutiva organizzati da HMG Strategy. I falsi eventi presentano aziende tecnologiche di grande nome elencate come partner, con un who’s who di consulenti e biografie reali di dirigenti di Zoom, Adobe, SAP, ServiceNow e Boston Red Sox, tra gli altri.

La partecipazione agli eventi HMG è gratuita per i dirigenti tecnologici senior, a condizione che si registrino. Secondo i termini e le condizioni di HMG, “Se per qualche motivo non sei in grado di partecipare e non puoi inviare un rapporto diretto in tua vece, verrà addebitata una penale per mancata presentazione di $ 100 per coprire i costi dei pasti e del personale di servizio”.

Uno scavo più approfondito su Eliot ha portato a un thread di Reddit di due anni che lo chiamava e virava rapidamente verso teorie del complotto difficili da seguire. Eliot potrebbe non essere un anagramma o legato alla NSA, ma è uno dei milioni di deepfake che fanno soldi online e che sono sempre più difficili da individuare.

Osservare gli effetti a catena finanziari dei deepfake solleva interrogativi su chi sia responsabile quando generano entrate per se stessi e per i loro partner. Inoltre, il costo del download di malware, del targeting di potenziali clienti falsi e del pagamento di link di marketing di affiliazione contenenti spam sono solo alcuni degli aspetti negativi dei deepfake.

Sebbene l’IA stia attivamente risolvendo i problemi che rendono difficile individuare la mancanza di autenticità di un deepfake, è ancora necessario che gli individui siano vigili su chi lasciano entrare nelle loro reti e nelle loro vite. Articoli come questo che espongono i deepfake possono aiutare l’IA a imparare e migliorare. La responsabilità di individuare i deepfake è quindi dei singoli, per evitare di cadere in trappole e truffe finanziarie che possono causare danni economici considerevoli.

Di Fantasy