Immagine AI

In un mondo digitale in cui l’intelligenza artificiale svolge un ruolo sempre più centrale, non solo nelle nostre vite quotidiane ma anche nelle sfide tecnologiche più impegnative, una scoperta inaspettata ha sottolineato quanto l’innovazione possa nascere dai percorsi meno scontati. È capitato che uno strumento di intelligenza artificiale ideato per supportare la salute mentale abbia aperto una nuova prospettiva nella rilevazione delle deepfake, quei contenuti audio e video generati o modificati in modo artificiale così realistiche da ingannare persino gli osservatori più attenti.

All’origine c’è un progetto di Kintsugi, una startup tecnologica californiana nata con l’obiettivo di affrontare una delle barriere più sentite nel campo della salute mentale: l’accesso tempestivo alla valutazione clinica. In molte realtà sanitarie, spesso chi ha bisogno di assistenza passa settimane solo per ottenere un primo colloquio con un professionista. Questa difficoltà di accesso ha spinto il team di Kintsugi a esplorare come strumenti basati sull’analisi vocale potessero aiutare nell’identificazione precoce di condizioni psicologiche come depressione e ansia.

La tecnologia sviluppata da Kintsugi si concentra su biomarcatori vocali, segnali sottili nella voce umana legati a aspetti fisiologici e cognitivi associati a vari stati emotivi e condizioni mentali. Analizzando elementi come il tono, l’intonazione, la variabilità prosodica e la pausa tra le parole, il sistema è in grado di distinguere voci umane reali da simulazioni sintetiche con grande precisione. I test interni hanno mostrato che questi segnali biologici, generati dalla fisiologia umana stessa, sono molto difficili da replicare in modo convincente da parte dei modelli sintetici.

Questa caratteristica ha portato i fondatori a una realizzazione sorprendente: le stesse tecniche che aiutano a valutare lo stato mentale di una persona possono servire anche a riconoscere quando una voce non è umana, ma frutto di una generazione artificiale – una deepfake vocale. In un summit a New York, la CEO Grace Chang si è resa conto che la sua tecnologia, pensata per la salute mentale, deteneva un potenziale enorme anche in un ambito completamente diverso: quello della sicurezza e della cybersecurity, dove le frodi via voce stanno crescendo rapidamente e i criminali usano sempre più spesso voci simulate per truffe telefoniche avanzate e campagne di manipolazione.

Questa scoperta ha avuto implicazioni immediate e profonde. Mentre l’AI generativa—modelli come Sora 2 di OpenAI o altri sistemi avanzati di generazione video e audio—produce contenuti sempre più realistici e difficili da distinguere dal materiale autentico, la necessità di strumenti affidabili che possano certificare l’autenticità diventa cruciale. Le deepfake, infatti, non sono solo una curiosità tecnologica: posson o essere impiegate per diffondere disinformazione, commettere frodi finanziarie, attacchi di vishing (phishing vocale) e danneggiare reputazioni individuali o aziendali. Secondo alcune analisi, la quantità di contenuti deepfake sta crescendo in modo esponenziale, con milioni di file falsi circolanti sulle piattaforme digitali ogni anno.

Ciò che rende questa scoperta particolarmente significativa non è solo l’efficacia della tecnologia, ma la natura umana dei segnali utilizzati per la rilevazione. A differenza di molti sistemi di rilevazione delle deepfake che si basano su artefatti visivi o analisi statiche dei dati, l’approccio di Kintsugi si concentra sui modelli biologici che sono intrinseci a come gli esseri umani producono linguaggio. I modelli generativi oggi disponibili possono replicare molte caratteristiche superficiali della voce umana, ma faticano a imitare quei micro-segnali fisiologici profondamente radicati nella biologia dell’emittente.

La trasformazione di uno strumento clinico in un possibile baluardo contro la disinformazione digitale mette in luce qualcosa di più ampio: le tecnologie sviluppate per risolvere problemi umani reali, come l’accesso alla cura della salute mentale, possono generare innovazioni con impatti inaspettati in altri settori. Questo caso illustra come l’intelligenza artificiale, pur con tutte le sue sfide etiche e tecniche, possa creare un ponte tra campi molto diversi, stimolando una riflessione su come gli strumenti di domani possano essere progettati non soltanto per una funzione specifica, ma con un occhio alla versatilità e all’interconnessione.

Di Fantasy