I sistemi di verifica dell’età basati sull’intelligenza artificiale, presentati negli ultimi anni come una delle principali soluzioni per proteggere i minori online, stanno mostrando limiti molto più evidenti del previsto. Secondo numerose segnalazioni emerse negli ultimi mesi, molti adolescenti sarebbero riusciti ad aggirare i controlli automatici utilizzati da social network, piattaforme video e siti per adulti semplicemente utilizzando baffi finti, trucco o piccole modifiche estetiche davanti alla fotocamera dello smartphone. Quello che inizialmente sembrava soltanto un fenomeno curioso si sta trasformando in un problema serio per l’intero settore della sicurezza digitale e della verifica biometrica dell’età.
Il meccanismo utilizzato dalle piattaforme è relativamente semplice. Sempre più servizi online stanno introducendo sistemi di “age assurance”, cioè tecnologie AI progettate per stimare automaticamente l’età di un utente attraverso selfie, immagini o brevi video registrati dalla fotocamera del dispositivo. L’intelligenza artificiale analizza struttura del volto, caratteristiche somatiche, pelle, proporzioni facciali e altri indicatori biometrici per calcolare una fascia d’età probabile senza richiedere necessariamente documenti ufficiali.
L’obiettivo di queste tecnologie è diventato centrale soprattutto dopo le pressioni normative provenienti dall’Unione Europea e da diversi governi occidentali, che chiedono alle piattaforme digitali di impedire ai minori l’accesso a contenuti considerati inappropriati. Meta, TikTok e numerosi altri operatori stanno investendo enormemente in sistemi automatici di identificazione degli utenti più giovani.
Il problema è che molti di questi algoritmi sembrano estremamente vulnerabili a modifiche estetiche molto banali. Secondo quanto riportato dalle segnalazioni online, alcuni ragazzi sarebbero riusciti a superare i controlli semplicemente disegnandosi baffi con matite da trucco, applicando peli finti sul volto o modificando leggermente ombre e lineamenti davanti alla fotocamera. Questo comportamento non è sorprendente quanto potrebbe sembrare. I moderni sistemi di age estimation basati su AI non “comprendono” realmente l’età biologica di una persona. Operano invece attraverso modelli statistici addestrati su enormi database di immagini etichettate per fascia anagrafica. Il sistema apprende correlazioni probabilistiche tra caratteristiche visive e età media delle persone presenti nei dataset di training. Quando il modello vede elementi comunemente associati all’età adulta — come barba, baffi o specifiche conformazioni facciali — tende automaticamente ad aumentare la stima anagrafica dell’utente.
Questo significa che l’intelligenza artificiale non verifica realmente chi sia la persona davanti alla telecamera. Il sistema si limita a stimare probabilisticamente una fascia d’età sulla base di caratteristiche visive statisticamente associate a gruppi anagrafici differenti. È proprio questa natura probabilistica a rendere possibile l’inganno tramite semplici alterazioni dell’aspetto. Il fenomeno evidenzia uno dei principali limiti dell’attuale computer vision applicata alla biometria sociale. I sistemi AI moderni sono estremamente potenti nel riconoscere pattern visivi, ma rimangono vulnerabili quando vengono introdotti elementi artificiali non sufficientemente rappresentati durante l’addestramento. Un paio di baffi finti possono alterare significativamente i parametri statistici utilizzati dal modello per stimare l’età apparente del volto.
Il problema diventa ancora più complesso perché la stima dell’età è una delle operazioni biometriche più difficili per l’intelligenza artificiale contemporanea. A differenza del riconoscimento facciale classico, dove il sistema confronta un volto con identità note, l’age estimation richiede inferenze molto più ambigue. Lo sviluppo fisico umano varia enormemente tra individui diversi e può essere influenzato da etnia, genetica, condizioni ambientali e stile di vita. Questo rende inevitabilmente meno precise le classificazioni automatiche basate soltanto sull’aspetto esteriore.
Le piattaforme stanno cercando di compensare questi limiti introducendo sistemi multimodali molto più invasivi. Meta, per esempio, ha recentemente annunciato che i propri algoritmi utilizzeranno non soltanto immagini e video, ma anche elementi comportamentali, stile linguistico, attività online e interazioni sociali per stimare l’età reale degli utenti. L’azienda ha spiegato che i sistemi AI analizzeranno struttura fisica, caratteristiche visive generali e altri segnali contestuali per identificare account appartenenti a minori che hanno dichiarato un’età falsa.
Questa evoluzione mostra chiaramente come il problema della verifica dell’età stia spingendo le piattaforme verso forme di sorveglianza algoritmica sempre più profonde. Il semplice selfie non viene più considerato sufficiente; i sistemi stanno evolvendo verso modelli che costruiscono profili probabilistici completi dell’utente combinando biometria, comportamento digitale e analisi sociale.
Esiste però una forte tensione tra efficacia e privacy. Per rendere davvero affidabili i controlli automatici, molte aziende e governi stanno valutando soluzioni molto più invasive, comprese scansioni documentali, identità digitali certificate e collegamenti con sistemi governativi di autenticazione. Nel Regno Unito e nell’Unione Europea il dibattito è già molto acceso, soprattutto perché il Digital Services Act europeo impone alle piattaforme obblighi sempre più stringenti sulla protezione dei minori online. Il rischio è che, nel tentativo di impedire ai ragazzi di aggirare i controlli con travestimenti banali, si finisca per costruire infrastrutture di identificazione biometrica estremamente pervasive. Numerosi esperti di privacy sottolineano infatti che la differenza tra “stima dell’età” e “riconoscimento biometrico” sta diventando sempre più sottile.
La situazione sta creando imbarazzo soprattutto per le piattaforme che avevano presentato la verifica AI dell’età come soluzione quasi definitiva alla protezione dei minori online. Il fatto che molti sistemi possano essere ingannati con elementi teatrali estremamente semplici sta mostrando quanto la sicurezza biometrica basata esclusivamente su computer vision sia ancora molto lontana dall’essere realmente affidabile.
