L’evoluzione dell’intelligenza artificiale generativa ha reso sempre più difficile distinguere tra ciò che è reale e ciò che è stato creato da un algoritmo. In questo contesto, Google ha compiuto un passo decisivo verso la trasparenza digitale introducendo una tecnologia capace di identificare i video generati dai propri modelli di intelligenza artificiale. Questa iniziativa, basata sul sistema SynthID sviluppato da Google DeepMind, rappresenta uno sforzo concreto per combattere la disinformazione e fornire agli utenti strumenti di verifica affidabili in un panorama mediatico sempre più complesso.
Il cuore di questa innovazione risiede in una tecnica di “watermarking” o filigranatura digitale estremamente sofisticata. A differenza dei classici marchi d’acqua visibili, che possono essere facilmente rimossi o coperti, SynthID agisce direttamente sui pixel di ogni singolo fotogramma del video. La tecnologia inserisce una firma digitale impercettibile all’occhio umano, ma perfettamente leggibile dai software di rilevamento. Questo processo avviene durante la fase stessa di generazione del video, assicurando che il marchio sia intrecciato in modo indissolubile con il contenuto multimediale, senza alterarne la qualità visiva o l’esperienza di visione.
Uno dei punti di forza di questo sistema è la sua straordinaria resilienza. I video digitali vengono spesso sottoposti a modifiche come il ritaglio dei bordi, la compressione per il caricamento sui social network o variazioni di colore. SynthID è stato progettato per sopravvivere a queste comuni alterazioni: la firma digitale rimane rilevabile anche se il file viene manipolato, rendendo molto difficile per chiunque tenti di nascondere l’origine artificiale del filmato. Google ha integrato questa funzione di verifica direttamente nell’app Gemini, permettendo agli utenti di caricare un video e chiedere esplicitamente se sia stato realizzato tramite i modelli di intelligenza artificiale di Big G, come ad esempio Veo.
L’analisi fornita dal sistema non si limita a un verdetto superficiale. Quando il software scansiona un file, è in grado di indicare con precisione millimetrica i segmenti temporali in cui è stato rilevato il watermark. Questo è particolarmente utile nei casi di video ibridi, dove spezzoni reali potrebbero essere stati montati insieme a clip generate dall’IA. Grazie ai cosiddetti “timestamp”, l’utente riceve un report dettagliato che evidenzia quali parti del video sono frutto della creatività algoritmica, garantendo un livello di consapevolezza finora impensabile per il grande pubblico.
Tuttavia, è importante sottolineare che SynthID non è una soluzione universale a tutti i problemi posti dai deepfake. Attualmente, il sistema è in grado di riconoscere esclusivamente i contenuti generati dagli strumenti proprietari di Google. Non può individuare video creati con piattaforme di altre aziende, a meno che queste non adottino standard simili o interoperabili. Si tratta comunque di un primo mattone fondamentale verso la creazione di un ecosistema digitale più sicuro, dove la tecnologia non viene usata solo per creare, ma anche per proteggere l’integrità dell’informazione e la fiducia degli utenti.
