Google sta rendendo più semplice per gli sviluppatori di IA mantenere riservati i dati degli utenti
Il nuovo modulo TensorFlow Privacy della società consente agli sviluppatori di proteggere i dati con una privacy differenziale

Nuovi strumenti per la privacy rendono più semplice per gli sviluppatori di IA mantenere i dati degli utenti al sicuro nello stack. Foto: Google
Google ha annunciato un nuovo modulo per il suo framework di apprendimento automatico, TensorFlow, che consente agli sviluppatori di migliorare la privacy dei propri modelli di intelligenza artificiale con poche righe di codice aggiuntivo.

TensorFlow è uno degli strumenti più popolari per la creazione di applicazioni di machine learning ed è utilizzato dagli sviluppatori di tutto il mondo per creare programmi come testo, audio e algoritmi di riconoscimento delle immagini. Con l’introduzione di TensorFlow Privacy , questi sviluppatori saranno in grado di salvaguardare i dati degli utenti con una tecnica statistica nota come “privacy differenziale”.

LA PRIVACY È IMPORTANTE QUANDO GLI STRUMENTI DI INTELLIGENZA ARTIFICIALE SOTTOVALUTANO I DATI
L’introduzione di questo strumento è in linea con i principi di Google per lo sviluppo responsabile dell’IA , responsabile dei prodotti Google Carey Radebaugh dice a The Verge . “Se non otteniamo qualcosa come la privacy differenziale in TensorFlow, allora sappiamo solo che non sarà facile per i team all’interno e all’esterno di Google utilizzarlo”, afferma Radebaugh. “Quindi per noi è importante farlo entrare in TensorFlow, aprirlo e iniziare a creare questa comunità attorno ad esso.”

La meccanica della privacy differenziale è alquanto complessa , ma è essenzialmente un approccio matematico che significa che i modelli di IA addestrati sui dati degli utenti non possono codificare informazioni di identificazione personale. È un modo comune per salvaguardare le informazioni personali necessarie per creare modelli AI: Apple l’ha introdotto per i suoi servizi AI con iOS 10 , e Google lo utilizza per una serie di funzioni AI come la Smart Reply di Gmail .

Per capire i pericoli per la privacy derivanti da questi tipi di servizi, considera come Smart Reply si basa su dati raccolti da oltre un miliardo di utenti Gmail per fare le sue risposte suggerite. Questo dato include ovviamente informazioni estremamente personali (in pratica qualsiasi cosa tu abbia mai inserito in una email), e se Smart Reply è emerso, ad esempio, suggerendo una risposta a un messaggio email che è parola per parola ciò che un altro utente ha scritto, sarebbe disastroso

Google utilizza la privacy differenziale per assicurarsi che la funzione Smart Reply di Gmail non rivelasse mai le informazioni personali. Foto di
La segretezza differenziale elimina questa possibilità con “certezza matematica”, dice Úlfar Erlingsson, uno scienziato ricercatore di Google che lavora da 20 anni nel campo della riservatezza dei dati. È una tecnica che rimuove i valori anomali identificabili dai set di dati senza modificare il significato aggregato di tali dati, Erlingsson dice a The Verge . “Hai un risultato che è indipendente dai dati [di una persona], ma questo è comunque un buon risultato.”

Ci sono alcuni aspetti negativi nell’utilizzo della privacy differenziale, però. “Mascherando i valori anomali, a volte può rimuovere dati rilevanti o interessanti, specialmente in vari set di dati, come quelli che coinvolgono il linguaggio”, afferma Erlingsson. “La segretezza differenziale significa letteralmente che è impossibile per il sistema conoscere tutto ciò che accade solo una volta nel set di dati, e quindi si ha questa tensione. Devi andare a prendere più dati di un certo tipo? Quanto sono rilevanti o utili quelle proprietà uniche nel set di dati? “

Ma Google spera che rilasciando la Privacy di TensorFlow più sviluppatori di IA in tutto il mondo inizieranno a utilizzare questa tecnica e questi problemi potranno essere migliorati. “C’è del lavoro da fare per rendere più facile la comprensione di questo compromesso”, afferma Radebaugh.

In definitiva, dice Google, è meglio avere più cervelli coinvolti e il rilascio di nuovi strumenti open source aumenta il pool di talenti disponibili. Inoltre, essere in grado di aggiungere la privacy differenziale a un modello di intelligenza artificiale utilizzando solo “quattro o cinque righe [di codice] e alcuni parametri iperparametrici” è un grande passo avanti a sé stante, afferma Erlingsson. “Questo è un mondo molto diverso da quello in cui eravamo anche solo pochi mesi fa, quindi ne siamo piuttosto orgogliosi.”

Di ihal