È un dato ormai noto che molti utenti — soprattutto giovani — ricorrono a filtri di bellezza prima di condividere una foto o una storia sui social. Ma cosa accade quando quei filtri, apparentemente innocui, entrano nel gioco delle tecnologie di manipolazione dell’immagine? Un articolo di Unite.AI mette in luce una possibilità inquietante: i filtri di bellezza possono diventare uno strumento per facilitare gli attacchi deepfake, degradando la capacità dei sistemi di riconoscimento di distinguere il reale dal contraffatto.
I filtri di bellezza, o “beauty filters”, sono ormai presenti ovunque: app social, videocall, filtri integrati nelle fotocamere dei telefoni. Il loro scopo dichiarato è migliorare l’aspetto: uniformare la pelle, attenuare imperfezioni, dare un effetto più luminoso, modificare leggermente i lineamenti per apparire più giovani o simmetrici. Ma ciò che per molti è semplicemente un ritocco estetico può avere un impatto ben più profondo, soprattutto quando la tecnologia entra in contatto con i sistemi di sicurezza facciale.
Secondo gli studi citati, l’uso dei filtri è già diffuso: in una ricerca condotta tra Spagna e Italia, si stima che il 90% delle donne tra i 18 e i 30 anni utilizzino filtri di bellezza prima di pubblicare immagini sui social. In tempi recenti, i filtri sono diventati così sofisticati che la loro presenza è quasi “normale” — tanto che in videochat e app sono spesso attivi in automatico, senza che ci rendiamo conto di quanto alterino il volto.
Il problema nasce quando un filtro leviga la pelle, attenua le rughe, modifica in modo sottile contrasti e tratti del viso. Queste alterazioni possono cancellare o deformare esattamente quei dettagli — texture della pelle, pori, micro-ombre, linee di contorno — che i sistemi di deepfake detection (i software che cercano di capire se un volto è reale o generato artificialmente) usano come indizi per riconoscere le immagini manipolate.
In altre parole: il filtro di bellezza non è necessariamente un’aggiunta sospetta — è un “rumore visivo” che può rendere più difficile l’identificazione delle manipolazioni nascoste. Per verificare quanto questa “interferenza estetica” potesse ostacolare i sistemi di deepfake detection, un gruppo di ricercatori dell’Università di Cagliari ha condotto uno studio intitolato Deceptive Beauty.
L’idea era semplice, almeno nella costruzione concettuale: prendere immagini vere e immagini manipolate (deepfake o “morphed faces” — volti ottenuti miscelando i tratti di due persone), applicarvi filtri di bellezza di intensità variabile, e vedere come si comportavano due reti neurali molto note nel campo della rilevazione: AlexNet e VGG19.
I risultati sono stati allarmanti. Con l’aumentare dell’intensità del filtro, la capacità delle reti di distinguere reali da falsi peggiorava sensibilmente: Nel caso dei deepfake, i tassi di errore crescevano: per AlexNet, l’Equal Error Rate (EER, una metrica che indica quando i falsi positivi e i falsi negativi si incontrano) saliva da 22,3% a 28,1%. Per VGG19, da 30,2% a 35,2%. I filtri rendevano più facile che immagini reali venissero confuse come false, o che i falsi passassero come legittimi.
Nel caso delle immagini “morphed”, la degradazione era ancora più acuta: l’EER di AlexNet saliva da circa 27,6% a 41,2%, quello di VGG19 da 19,0% a 37,3%. In alcuni casi, con filtri moderati, il modello produceva tassi altissimi di falsi positivi (riconoscere immagini autentiche come falsi) — fino al 90% con VGG19.
Questi numeri significano che anche un filtro estetico “innocuo” può fornire una “copertura” per i falsi: distorsioni leggere ma sistematiche nel volto altrui possono mascherare gli artefatti che un sistema di difesa cerca di cogliere.
Fin qui siamo nel mondo della matematica, dei codici, dei dataset. Ma le implicazioni escono da lì e toccano aspetti umani, sociali e persino geopolitici.
- Identità biometrica e autenticazione: molti sistemi (nei passaporti biometrici, nei controlli di frontiera, nei dispositivi di riconoscimento facciale) si affidano a caratteristiche del volto per autenticare una persona. Se qualcuno utilizza filtri di bellezza prima di inoltrare una foto per registrazione, oppure se filtri automatici vengono applicati nelle pipeline di raccolta, le difese contro le immagini morfate o contraffatte possono risultare indebolite. Un attaccante potrebbe “camuffarsi” dietro una bellezza attenuata e riuscire a ingannare il sistema.
- Videochat e contesti aziendali: nelle riunioni online, nei colloqui via Zoom, nell’uso aziendale di videocall, la presenza di filtri è ormai integrata: alcune piattaforme offrono filtri di bellezza in tempo reale, anche senza che l’utente li attivi consapevolmente. Se un partecipante attiva un filtro per migliorarsi — magari inconsapevolmente — questo potrebbe rendere più difficile per i sistemi interni riconoscere un deepfake che tenta di sostituirsi a lui.
- Il “rumore del visivo” come tattica difensiva: se tante persone usano filtri, il panorama visivo diventa più omogeneo, meno ricco di texture e dettaglio. In questo contesto, gli algoritmi di deepfake detection faticano a trovare differenze nette tra originale e manipolato. In un’epoca in cui la qualità video e fotografica è altissima, paradossalmente, l’omogeneizzazione può favorire i truffatori.
- Verso regole e limiti tecnologici: l’articolo suggerisce che in contesti di “alto rischio” — per esempio nei sistemi di accesso sicuro, nei controlli governativi, in ambiti forensi — potrebbe essere necessario limitare o disabilitare l’uso di filtri di bellezza, o almeno richiedere versioni “raw” dell’immagine (non filtrate). Questo però entra in conflitto con la cultura visiva dominante, dove il ritocco è diventato quasi norma.
Di fronte a questi risultati, non servono panico né demonizzazioni, ma una riflessione ponderata su come bilanciare estetica, privacy, autenticità e sicurezza. Da un lato, non è giusto proibire a chiunque di usare un filtro per migliorarsi: in un mondo dove l’immagine sociale conta, il desiderio di apparire al meglio è comprensibile — e non è automaticamente moralmente sbagliato. Dall’altro lato, quando quei ritocchi minacciano la veridicità delle rilevazioni digitali, la sfida tecnica si fa urgente.
Una direzione possibile è lo sviluppo di rilevatori che sappiano “vedere attraverso” la bellezza — cioè che distinguano alterazioni cosmetiche innocue da manipolazioni subdole che tentano di mascherare un volto. Questi modelli dovranno essere addestrati non solo sui casi “puramente falsi”, ma anche su versioni filtrate di immagini reali e false, affinché imparino a ignorare il “rumore estetico” e concentrarsi su caratteristiche più stabili e robuste.
Un’altra strada è la trasparenza: per certi usi sensibili, potrebbe essere richiesto che le immagini inviate siano “non filtrate” o accompagnate da prove che mostrino la versione originale. Certamente ciò rende il processo più ad oneroso per gli utenti, e potrebbe scontrarsi con questioni di privacy e praticità.
Infine, serve consapevolezza: non basta che gli sviluppatori di sistemi di visione artificiale siano all’erta; serve che le persone comprendano che ogni filtro introduce una trasformazione reale, che può avere conseguenze ben oltre il semplice look estetico.