I ricercatori di OpenAI, Microsoft, Università di Harvard e Università di Stanford propongono un nuovo tipo di certificato digitale per distinguere l’intelligenza artificiale (AI) dagli esseri umani. Questo certificato, denominato “credenziale della personalità” (PHC), mira a garantire che le interazioni online avvengano tra persone reali senza compromettere la privacy.
Il Washington Post e il MIT News hanno pubblicato un articolo intitolato “Personality Credentials (PHC): Il valore di uno strumento di protezione della privacy che distingue le persone reali dall’intelligenza artificiale online”. L’articolo sottolinea che, mentre l’anonimato online è importante, i progressi tecnologici rendono sempre più difficile distinguere tra umani e AI. Questo può portare a problemi, come attività fraudolente da parte di AI indistinguibili dagli esseri umani.
Il documento propone quindi l’uso delle PHC, un certificato digitale che permette agli utenti di dimostrare la loro umanità senza rivelare dati personali. Attualmente, si usano metodi come CAPTCHA o verifiche dell’identità, ma entrambi hanno limitazioni: i CAPTCHA possono essere superati dalle AI, mentre le verifiche di identità possono compromettere la privacy.
Le PHC funzionerebbero attraverso una prova crittografica che dimostra l’umanità dell’utente senza rivelare la sua identità. Questo certificato potrebbe essere emesso da governi o istituti fidati e utilizzato su diversi servizi online. Tra le caratteristiche essenziali delle PHC ci sono la prevenzione della creazione di identità false e la protezione della privacy dell’utente, evitando il tracciamento delle interazioni online.
I ricercatori hanno menzionato anche l’uso dell’identificazione biometrica, ma hanno evidenziato problemi legati alla privacy e all’accuratezza di queste tecnologie. Hanno suggerito un approccio decentralizzato per l’emissione delle PHC, per evitare concentrazioni di potere e possibili abusi.
L’articolo evidenzia che la gestione della privacy e della sicurezza online diventerà sempre più cruciale man mano che l’AI progredisce. È fondamentale avviare discussioni tra pubblico, politici, ingegneri e organizzazioni per sviluppare adeguate misure di protezione.
Gli autori dell’articolo includono Steven Adler di OpenAI, Joey Hitzik dell’Università di Harvard, Sherey Jane di Microsoft e Rene DiResta dello Stanford Internet Lab, insieme a altri esperti come Brian Christian e Andrew Creech.