Oggi, durante la conferenza Microsoft Ignite, il gigante del software ha annunciato nuove funzionalità di sicurezza e conformità dei dati in Microsoft Purview, mirate a garantire la protezione delle informazioni utilizzate nei sistemi di intelligenza artificiale generativa come Copilot.
Queste nuove funzionalità daranno agli utenti Copilot su Microsoft 365 il controllo sulla quale dati l’assistente di codifica AI può accedere, automatizzeranno la classificazione dei dati sensibili nelle risposte e stabiliranno controlli di conformità sull’utilizzo di LLM (Linguaggio Naturale basato su modelli linguistici).
Herain Oberi, direttore generale della sicurezza, conformità e privacy dei dati di Microsoft, e Rudra Mitra, vicepresidente aziendale di Microsoft, hanno condiviso informazioni chiave sull’innovativo approccio di Microsoft prima dell’annuncio.
“La base su cui si costruisce l’intelligenza artificiale è costituita dai dati. L’IA è valida solo quanto i dati con cui viene alimentata, ed è una parte fondamentale”, ha sottolineato Oberi, enfatizzando il ruolo critico dei dati nelle applicazioni di intelligenza artificiale.
Mitra ha aggiunto: “Con Purview, Microsoft sta cercando di proteggere il futuro dell’intelligenza artificiale o, meglio, di proteggere il futuro dei dati tramite l’intelligenza artificiale. È un approccio molto responsabile”.
Un nuovo hub AI in Purview offrirà agli amministratori visibilità sull’uso di Copilot all’interno dell’organizzazione, consentendo loro di monitorare le interazioni tra i dipendenti e l’intelligenza artificiale e valutare i rischi associati.
Inoltre, impedirà l’inserimento di dati sensibili in Copilot in base ai profili di rischio dell’utente, mentre l’output dell’intelligenza artificiale erediterà le etichette di protezione dai dati di origine.
“La visibilità tra i Copiloti di Microsoft è importante, ma crediamo che ciò che conta di più per i clienti sia avere una visione completa”, ha sottolineato Mitra.
Dal punto di vista della conformità, i controlli, la conservazione e il monitoraggio delle comunicazioni di Purview verranno estesi alle interazioni con Copilot. Ma questo è solo l’inizio, poiché Microsoft intende espandere la protezione di Purview non solo a Copilot, ma anche all’intelligenza artificiale interna e alle app di terze parti, come ChatGPT.
Con l’intelligenza artificiale destinata a un’adozione sempre maggiore, Microsoft si posiziona in prima linea nell’uso responsabile ed etico dei dati nei sistemi di intelligenza artificiale aziendale. La governance dei dati solida diventerà fondamentale per garantire la privacy e prevenire possibili abusi in questa nuova frontiera tecnologica.
Tuttavia, una vera intelligenza artificiale responsabile richiederà il coinvolgimento di tutto il settore tecnologico. Anche concorrenti come Google, Amazon e IBM dovranno porre l’etica dei dati al centro delle loro priorità. Solo così gli utenti potranno confidare nell’intelligenza artificiale e questa potrà raggiungere il suo massimo potenziale.
Il cammino da percorrere è chiaro: le aziende desiderano innovazione all’avanguardia e allo stesso tempo una rigorosa protezione dei dati. La prima azienda a guadagnare la fiducia degli utenti aprirà la strada a un futuro guidato dall’intelligenza artificiale.