PreAct Technologies (PreAct), un’azienda con sede in Oregon specializzata nello sviluppo di tecnologia LiDAR flash a campo vicino, sostiene che i futuri sensori delle fotocamere saranno in grado di discernere tra oggetti reali e falsi profondi generati dall’intelligenza artificiale.
A breve termine, la visione artificiale potrebbe accentuare le sfide legate ai deep fake nei settori dei media e della comunicazione, poiché la veridicità delle immagini e dei video risulta minacciata.
Nell’era digitale, la linea tra realtà e finzione ha cominciato a sfumare, rendendo spesso difficile distinguere i fatti dalla manipolazione. Con l’avvento dei deep fake e della CGI avanzata, la credibilità delle nostre immagini è stata messa in discussione più volte, soprattutto nel contesto della visione artificiale. Questa tecnologia trasversale sta per avere un impatto significativo in settori quali l’automotive, l’imaging medico, la vendita al dettaglio, la salute, la sicurezza, la protezione e l’intrattenimento. Il suo impatto sulla società sta appena iniziando a emergere.
A breve termine, la visione artificiale potrebbe amplificare i problemi legati ai deep fake nei settori dei media e della comunicazione, poiché si pone la domanda fondamentale: come possiamo essere certi che ciò che vediamo sia autentico? L’idea che la persona con cui stiamo interagendo su Zoom potrebbe non essere chi dice di essere è inquietante. Questo solleva la necessità di un’autenticazione a doppio fattore per le videochiamate, allo scopo di garantire l’identità dell’interlocutore.
Oltre a queste preoccupazioni, le aziende stanno esplorando il campo delle chat video postume, consentendo alle persone di conversare con repliche digitali dei propri cari anche dopo la loro scomparsa. Questo ha suscitato riflessioni sul concetto di “immortalità” umana, come opportunamente sottolineato dal Washington Post.
Inoltre, l’industria dell’intrattenimento deve affrontare una serie di sfide. Sussiste l’apprensione che l’intelligenza artificiale possa alla fine sostituire attori e sceneggiatori a Hollywood. Questa preoccupazione non è infondata; recenti film, come l’ultimo capitolo delle avventure di Indiana Jones, hanno mostrato un Harrison Ford in una versione giovane di 40 anni. Sorge quindi la domanda: quanto siamo lontani da un futuro in cui i film saranno interamente creati dall’intelligenza artificiale, senza coinvolgimento umano? Questo scenario distopico ricorda le narrazioni di “Black Mirror”.
Tuttavia, nonostante questi aspetti negativi, la stessa tecnologia che solleva queste preoccupazioni può offrire anche soluzioni. Man mano che la visione artificiale progredisce, può essere utilizzata per rilevare incongruenze nei contenuti generati dall’intelligenza artificiale.
Ciò può avvenire attraverso:
Microespressioni e biometria: I volti generati dall’intelligenza artificiale, per quanto realistici, possono avere difficoltà a replicare perfettamente le microespressioni o i piccoli movimenti facciali che sono intrinsecamente umani. Le fotocamere del futuro, dotate di sensori ad alta risoluzione e algoritmi avanzati, possono essere addestrate a identificare queste sottili differenze.
Analisi dei pixel: Le immagini generate dall’intelligenza artificiale spesso lasciano modelli pixel che possono rivelare la loro natura artificiale. Le fotocamere future saranno in grado di distinguere tra contenuti reali e generati dall’intelligenza artificiale analizzando i pixel per individuare anomalie o incongruenze.
Verifica dei metadati: Ogni immagine o video digitale è associato a metadati che indicano quando, dove e come è stato creato. Verificando l’integrità di questi metadati, le fotocamere future potranno convalidare l’autenticità del contenuto.
Verifica della fonte: Le telecamere possono essere collegate a blockchain o database decentralizzati per convalidare la fonte del contenuto, garantendo la sua legittimità.
L’unione tra il rilevamento della profondità e la blockchain può rappresentare una soluzione promettente per combattere l’inganno digitale e le manipolazioni dei contenuti in tempo reale.
Rilevamento della profondità: Questa tecnologia, utilizzata per misurare la distanza tra il sensore e gli oggetti, aggiunge ulteriori informazioni a un’immagine o a un video. A differenza delle immagini bidimensionali tradizionali, le mappe di profondità forniscono una comprensione tridimensionale dello spazio circostante. Questo crea una firma unica per l’immagine, rendendo molto difficile per gli algoritmi di intelligenza artificiale generare dati di profondità coerenti con la realtà.
Blockchain: Si tratta di un sistema di registrazione decentralizzato noto per la sua immutabilità. Una volta registrati sulla blockchain, i dati diventano inalterabili, impossibili da modificare senza il consenso della rete.
Timestamp in tempo reale: Combinando il rilevamento della profondità con la blockchain, è possibile creare timestamp in tempo reale che identificano chiaramente i video o le immagini autentici rispetto a quelli contraffatti. Quando una foto o un video viene catturato, il sensore di profondità della fotocamera registra contemporaneamente la mappa di profondità e i dati dell’immagine o del video. Questi dati vengono immediatamente sottoposti a hash (convertiti in una stringa di numeri di dimensioni fisse) e registrati sulla blockchain.
Firme univoche: I dati di profondità rappresentano una firma unica, difficile da replicare in modo accurato da parte degli algoritmi di intelligenza artificiale per le immagini generate artificialmente.
Timestamp immutabili: Una volta registrati sulla blockchain, questi dati creano un timestamp immutabile che verifica quando il contenuto è stato catturato. Qualsiasi tentativo successivo di manipolare l’immagine o il video non coinciderà con l’hash originale sulla blockchain, evidenziandolo come potenzialmente falsificato.
Verifica pubblica: Grazie alla natura decentralizzata della blockchain, chiunque può verificare la legittimità di un contenuto rispetto al suo timestamp, garantendo trasparenza e affidabilità.
L’unione di queste tecnologie offre una solida difesa contro la crescente minaccia dei contenuti contraffatti, ancorando la realtà in un mondo digitale in continua evoluzione.
Quindi, mentre i contenuti generati dall’intelligenza artificiale portano indubbi vantaggi, comportano anche sfide che possono mettere in pericolo l’autenticità dei media digitali. Tuttavia, grazie ai progressi nella visione artificiale, nella tecnologia LiDAR e nelle capacità delle future fotocamere, stiamo preparando il terreno per un futuro in cui la distinzione tra contenuti autentici e falsificati diventerà sempre più tangibile. L’obiettivo è non solo ammirare le potenzialità della tecnologia, ma anche utilizzarla in modo responsabile per un autentico futuro digitale.