Immagine AI

Meta sta introducendo una delle più invasive infrastrutture di verifica dell’età mai implementate all’interno dei social network. L’azienda guidata da Mark Zuckerberg ha annunciato l’espansione di sistemi basati su intelligenza artificiale progettati per identificare automaticamente adolescenti e minori che utilizzano Facebook e Instagram dichiarando un’età falsa o aggirando le restrizioni previste dalle piattaforme. La novità rappresenta un passaggio molto importante nella trasformazione dei social network in ambienti sempre più monitorati da sistemi AI comportamentali e biometrici.

Il sistema sviluppato da Meta non si limita più all’analisi dei dati inseriti manualmente dagli utenti, ma utilizza modelli AI multimodali capaci di interpretare immagini, video, testo, comportamenti digitali e caratteristiche visive per stimare la fascia d’età di una persona. Secondo quanto spiegato dall’azienda, l’intelligenza artificiale analizzerà contenuti pubblicati, fotografie, interazioni, commenti, bio e perfino dettagli visivi presenti nei video caricati dagli utenti.

Il sistema appartiene alla categoria dei modelli di age estimation basati su computer vision e behavioral analysis. Le moderne AI di stima dell’età combinano infatti differenti livelli di elaborazione simultanea. Una parte del sistema lavora sul linguaggio scritto, cercando indicatori compatibili con età adolescenziale come riferimenti scolastici, compleanni, stile comunicativo, slang generazionale o tipologia delle interazioni sociali. Un secondo livello utilizza invece analisi visiva avanzata per interpretare elementi presenti in foto e video.

Meta ha specificato che l’algoritmo prenderà in considerazione segnali generali come struttura fisica, altezza apparente e caratteristiche corporee visibili nei contenuti condivisi. L’azienda insiste però sul fatto che il sistema non debba essere definito “riconoscimento facciale”, sostenendo che l’obiettivo non sia identificare persone specifiche ma soltanto stimare probabilisticamente la fascia d’età dell’utente.

Questa distinzione è particolarmente importante sul piano normativo. In Europa il riconoscimento facciale biometrico è soggetto a restrizioni molto severe, soprattutto dopo l’entrata in vigore dell’AI Act e del Digital Services Act. Meta sta quindi cercando di posizionare il nuovo sistema come tecnologia di classificazione statistica e non come identificazione biometrica individuale. Tuttavia, molti esperti di privacy evidenziano che la differenza tecnica tra stima dell’età biometrica e riconoscimento facciale avanzato sta diventando sempre più sottile.

La spinta verso questi sistemi nasce soprattutto dalle pressioni normative europee. La Commissione Europea ha recentemente accusato Meta di non aver fatto abbastanza per impedire l’accesso dei minori di 13 anni alle piattaforme social, aprendo procedimenti legati al Digital Services Act e minacciando sanzioni potenzialmente enormi. Il problema è particolarmente delicato perché gran parte delle restrizioni previste per gli adolescenti dipende direttamente dalla corretta identificazione dell’età reale degli utenti.

Negli ultimi anni Meta aveva già introdotto gli “Account Teen”, profili speciali progettati per adolescenti con limitazioni automatiche su contenuti sensibili, messaggistica privata, suggerimenti algoritmici e pubblicità. Tuttavia, il sistema si basava principalmente sull’età dichiarata al momento della registrazione. Il nuovo modello AI cerca invece di identificare automaticamente discrepanze tra età dichiarata e comportamento reale dell’utente.

Quando il sistema considera un account sospetto, Meta può attivare procedure di verifica aggiuntive. In alcuni casi l’account viene temporaneamente limitato o sospeso fino alla conferma dell’età tramite documenti o sistemi di verifica previsti dalla piattaforma. Se l’utente non riesce a dimostrare di avere l’età minima richiesta, il profilo può essere eliminato definitivamente.

L’analisi visiva dell’età rappresenta però uno degli ambiti più controversi dell’intera AI contemporanea. Diversi studi accademici hanno mostrato che i sistemi automatici di age estimation possono produrre errori significativi legati a etnia, genere, condizioni fisiche e variabilità individuale. La stima algoritmica dell’età non è infatti una scienza esatta: l’AI lavora attraverso correlazioni statistiche e non attraverso reale comprensione biologica dello sviluppo umano.

Questo introduce inevitabilmente rischi di falsi positivi. Un adulto dall’aspetto molto giovane potrebbe essere classificato erroneamente come adolescente, mentre alcuni minori potrebbero non essere identificati correttamente dal sistema. In contesti sociali globali con miliardi di utenti, anche percentuali di errore relativamente basse possono produrre enormi quantità di classificazioni scorrette. Esiste inoltre una questione culturale molto delicata. I sistemi AI addestrati prevalentemente su dataset occidentali potrebbero interpretare in modo meno accurato caratteristiche fisiche e comportamentali appartenenti a popolazioni differenti. Questo problema è già emerso in numerosi altri settori dell’intelligenza artificiale, inclusi riconoscimento facciale, moderazione automatica e sistemi biometrici predittivi.

Meta sta cercando anche di evitare uno scenario molto pericoloso sul piano politico. In diversi Paesi occidentali cresce infatti la pressione per introdurre obblighi legali di verifica dell’età sui social network, con possibili conseguenze enormi per privacy, anonimato online e libertà digitale. Implementando autonomamente sistemi AI di identificazione dei minori, Meta tenta di dimostrare alle autorità di poter gestire il problema senza imposizioni normative ancora più invasive.

Di Fantasy