Un fenomeno emergente e allarmante è la diffusione su TikTok di falsi medici generati dall’IA, che dispensano consigli medici infondati e potenzialmente pericolosi. Questi avatar digitali, presentati come esperti con anni di esperienza in vari settori della medicina, stanno attirando l’attenzione di milioni di utenti inconsapevoli, sollevando serie preoccupazioni sulla fiducia nelle informazioni mediche online.​

Una semplice ricerca su TikTok rivela decine di video in cui donne si presentano come specialiste con frasi ad effetto del tipo “13 anni come dottoressa specializzata e nessuno mi crede quando dico questo”, per poi condividere presunti segreti di salute per seni tonici, addomi piatti o mascelle definite. L’elemento inquietante è che queste “esperte” non esistono nella realtà: sono completamente generate da algoritmi di intelligenza artificiale. La tecnologia deepfake sta creando un’armata di falsi esperti che potrebbe compromettere la fiducia nelle informazioni mediche online. Utenti attenti hanno notato che gli stessi identici volti compaiono in video diversi, spacciandosi per specialisti in campi medici completamente differenti, dalla ginecologia alla chirurgia plastica, dalla nutrizione alla dermatologia, offrendo rimedi non convenzionali per vari disturbi o preoccupazioni estetiche. ​

Javon Ford, creatore dell’omonimo brand di bellezza, ha recentemente svelato il meccanismo dietro questi falsi medici digitali. In un video pubblicato su TikTok, Ford ha dimostrato come questi personaggi IA vengano creati attraverso un’applicazione chiamata Captions, uno strumento che permette di generare e modificare video con avatar parlanti generati dall’intelligenza artificiale. L’app si vanta di avere 100.000 utenti giornalieri e di produrre oltre 3 milioni di video ogni mese. Tuttavia, Ford ha definito questo servizio “profondamente insidioso”, mostrando come sia possibile selezionare un avatar tra un’ampia gamma di personaggi virtuali (come “Violet”, frequentemente utilizzata nei video della “dottoressa specializzata”), scrivere uno script e far ripetere all’avatar qualsiasi informazione, indipendentemente dalla sua veridicità. ​

Di fronte alla proliferazione di questi contenuti, creatori autentici stanno cercando di educare il pubblico su come identificare se la persona sullo schermo sia reale o generata artificialmente. Ford ha evidenziato alcuni elementi rivelatori, tra cui i “movimenti della bocca” definiti “inquietanti” e la non sincronizzazione tra labbra e audio, definendolo il “primo campanello d’allarme”. Ha inoltre sottolineato che affermazioni straordinarie, come sostenere che un prodotto o un rimedio naturale funzioni meglio di ciò che viene comunemente utilizzato, dovrebbero far scattare sospetti. Un altro esperto, Caleb Kruse, ha evidenziato segnali come occhi troppo grandi, movimenti della testa innaturali e pause strane nel discorso, che contribuiscono a una sensazione generale di “non autenticità” nel video. ​

La diffusione di falsi medici generati dall’IA solleva importanti questioni etiche riguardo alla disinformazione e alla sicurezza degli utenti. TikTok, consapevole del problema, ha implementato linee guida per i contenuti generati dall’IA, vietando quelli che rappresentano in modo ingannevole personaggi pubblici o fonti autorevoli, specialmente in contesti sensibili come la salute. Tuttavia, la rapidità con cui questi contenuti si diffondono rende difficile una moderazione efficace. È quindi fondamentale che gli utenti sviluppino un senso critico e siano in grado di riconoscere i segnali distintivi dei deepfake, per proteggersi da informazioni potenzialmente dannose.

Di Fantasy