Home / Intelligenza artificiale pericolo / Intelligenza artificiale AI e privacy dei dati

Intelligenza artificiale AI e privacy dei dati

Intelligenza artificiale e privacy dei dati: trasformare un rischio in un vantaggio

Uno dei motivi più importanti per cui le aziende, in particolare quelle rivolte ai consumatori, vogliono avere molti dati è sapere il più possibile sul mercato, noi. L’intelligenza artificiale (AI) ha reso sempre più preciso il focus sui clienti. Mentre gli affari sono diventati più invasivi, i governi hanno iniziato a esaminare e approvare regolamenti che iniziano a fornire determinati limiti. La privacy è importante per l’elettorato e il business intelligente esamina come utilizzare i dati per trovare informazioni pur rimanendo in conformità con le norme normative.

Quasi dieci anni fa, Target ha creato un algoritmo che ha scoperto se le persone erano incinte in base ai modelli di acquisto e la società ha quindi inviato i coupon agli indirizzi di quei clienti. Quel tipo di azione predittiva era problematico, soprattutto in un caso in cui una giovane donna non aveva ancora detto a suo padre di essere incinta, ma invece lo informavano dei buoni inviati per posta. La scelta di inviare informazioni è una questione etica, spesso gestita male dalle aziende. La domanda più importante è cosa possono sapere le aziende sugli individui. Il GDPR dell’UE e il CCPA della Californiasono solo l’inizio. Nessuno dei due è perfetto ed entrambi si evolveranno, ma le leggi sulla privacy si espanderanno. Sebbene ogni azienda debba esaminare cosa fare con i dati ottenuti legalmente in base alla propria etica aziendale, tutti devono prestare attenzione ai problemi di conformità legale.

Una delle aree importanti in cui la questione della privacy anticipata è il settore medico. Questa privacy è importante, soprattutto negli Stati Uniti, una delle poche nazioni senza assistenza sanitaria universale e dove le protezioni contro le condizioni preesistenti rimangono fragili. HIPAA (The Health Insurance Portability and Accountability Act) è stato approvato nel 1996 ed è la base statunitense per la definizione delle informazioni di identificazione personale (PII) e la creazione di limitazioni su come le PII possono essere condivise. Sebbene si sia concentrato su come un’azienda può condividere i dati con altre aziende del settore medico e chi in un’azienda può vedere le informazioni, i team IT e di sviluppo hanno spesso deciso che non fanno parte della sentenza. Gli sviluppatori affermano di aver bisogno di tutti i dati per realizzare sistemi accurati.

Questa affermazione ha portato, negli ultimi decenni, a un insieme in evoluzione di tecniche che consentono di manipolare i dati in modi che proteggono le PII, lasciando ancora dati che sono ancora statisticamente validi per l’analisi. La loro complessità continua ad aumentare, per gestire sia la privacy che l’analisi e, fortunatamente, oltre lo scopo di questo articolo.

Altri settori, come la finanza, le scienze della vita e il governo hanno esigenze simili di protezione delle PII poiché le informazioni vengono trasmesse alle organizzazioni interne e tra aziende e governi.

L’intelligenza artificiale ha reso la sfida più affrontabile e più rischiosa. La capacità di addestrare un sistema di apprendimento profondo (DL) su grandi quantità di dati ha aumentato la velocità di analisi e risultati, ma la necessità di un numero sempre maggiore di dati aumenta il rischio di mancanza di privacy. Al fine di fornire processi per gestire questa sfida in un lasso di tempo ragionevole, il software può nuovamente aiutare.


Legale e conformità, incontra gli sviluppatori
È probabile che ogni azienda di medie e grandi dimensioni disponga di team legali e di conformità per gestire i rischi normativi e contrattuali. Sono anche coinvolti in questioni di privacy. Tuttavia, non sorprende che parlino una lingua diversa da quella degli sviluppatori. Proprio come tra tedesco e spagnolo, nessuna delle due lingue è intrinsecamente migliore, sono diverse. Come possiamo tradurre meglio?

L’inclusione di team legali e di conformità significa anche una maggiore importanza della suite CxO. Sebbene tutti i principali sistemi abbiano un certo coinvolgimento a quel livello, la privacy richiede un forte coinvolgimento per tre ragioni principali. In primo luogo, più gruppi principali sono coinvolti nella decisione e nell’uso dei sistemi di privacy. Uno degli scopi principali del livello CxO è bilanciare le esigenze e le richieste concorrenti. In secondo luogo, la privacy e la conformità, come menzionato sopra, sono un riflesso diretto dell’etica e delle pratiche commerciali di un’azienda. Questi sono impostati a livello CxO. In terzo luogo, i problemi di privacy sono un grave rischio aziendale. La mancanza di una politica e di un processo sulla privacy forti può essere un costo significativo dal punto di vista finanziario e di reputazione e può persino uccidere un’azienda.

Nel mondo in rapida evoluzione dei dati e del business moderni, questa traduzione è fondamentale. La privacy non è un problema tecnico, non è un problema legale, è un problema aziendale. “Oggi i team legali e di conformità gestiscono manualmente la crescente complessità delle normative sulla privacy dei dati. Il tempo speso nella gestione di questo ampio processo creerà un enorme collo di bottiglia per le aziende per ottenere l’accesso ai dati”, ha affermato Che Wijesinghe, CEO di Cape Privacy . “C’è un divario tecnologico affinché gli avvocati siano in grado di definire e gestire la politica sulla privacy in modo efficiente. Cape fornisce un metodo facile da usare per implementare tecniche avanzate di privacy per una condivisione dei dati sicura e affidabile. “

Cape Privacy è un’azienda che si concentra sulla fornitura di software che si integra nell’infrastruttura esistente di data science e machine learning di un’azienda, consentendo a tutte le parti di lavorare insieme su progetti e politiche. Questo è il vero discorso di startup, con un focus iniziale sull’attuazione delle politiche sulla privacy a livello di sviluppo. L’azienda lavora per aiutare i programmatori a controllare le politiche sulla privacy nei dati e tra le applicazioni. Qual è il suo legame con i gruppi legali e di conformità è più rudimentale, c’è chiaramente una visione che mostra l’intento di migliorare la collaborazione man mano che la soluzione cresce.

I sistemi quasi aperti sono importanti
Un aspetto fondamentale per lo sviluppo di un tale sistema è il tipo di sistema da costruire. In tutto il software, il cloud e la maggiore capacità di interoperabilità hanno significato API e applicazioni più potenti create da componenti aperti. Un sistema aperto puro non funzionerà in questo modo più di quanto abbia funzionato in passato. Unix non ha lasciato il mondo accademico fino a quando HP, IBM e Sun non hanno raggruppato le loro versioni di “open” con servizi e aggiornamenti unici.

Aziende come Cape Privacy stanno sfruttando componenti aperti, come TensorFlow, per aiutare gli sviluppatori. Hanno persino creato Cape Python, la loro versione del linguaggio di programmazione, per sfruttare la conoscenza e migliorare la produttività. Per i tecnici, gran parte di ciò che forniscono è disponibile su GitHub. “Sebbene l’open source abbia vantaggi in tutti i settori, è fondamentale per fornire fiducia nelle soluzioni per la privacy”, ha affermato Katharine Jarmul, Head of Product, Cape Privacy. “La possibilità per le agenzie di regolamentazione di visualizzare la base di codice e garantire che gli strumenti appropriati, e solo gli strumenti appropriati, siano in uso risolve problemi legali e di conformità.”

All’estremità superiore, lavorano per garantire che lo sviluppo sia aperto al fine di lavorare su più infrastrutture cloud, fornendo alle aziende la capacità di sapere che esiste la portabilità.

Questa apertura è anche il motivo per cui il deep learning non fa ancora parte di una soluzione. Non c’è ancora la trasparenza necessaria nei livelli DL per avere la fiducia necessaria per i problemi di privacy. Piuttosto, questi sistemi mirano ad aiutare a gestire la privacy delle informazioni per le applicazioni di machine learning.

Le applicazioni di intelligenza artificiale non sono aperte e possono mettere a rischio la privacy. L’aggiunta di buoni strumenti per affrontare la privacy dei dati utilizzati dai sistemi di intelligenza artificiale è un importante passo iniziale per aggiungere fiducia all’equazione dell’intelligenza artificiale.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi