Monitaur lancia GovernML per gestire il ciclo di vita dei dati dell’IA
Il fornitore di software di governance di intelligenza artificiale (AI) Monitaur ha lanciato per la disponibilità generale GovernML , l’ultima aggiunta alla sua piattaforma di assicurazione ML , progettata per le imprese impegnate nell’uso responsabile dell’IA.
GovernML, offerto come un’applicazione software-as-a-service (SaaS) basata sul Web, consente alle aziende di stabilire e mantenere un sistema di registrazione delle politiche di governance del modello , delle pratiche etiche e del rischio del modello nell’intero portafoglio di IA, CEO e fondatore Anthony Habayeb ha detto a VentureBeat.
Con l’accelerazione dell’implementazione dell’IA in tutti i settori, anche gli sforzi per stabilire normative e standard interni che garantiscano un uso equo, sicuro, trasparente e responsabile di questi dati spesso personali, ha affermato Habayeb. Per esempio:
Entità che vanno dall’Unione Europea a New York City e allo stato del Colorado stanno finalizzando una legislazione che codifica le pratiche sposate da un’ampia gamma di istituzioni pubbliche e private in legge.
Le aziende stanno dando la priorità alla necessità di stabilire e rendere operative politiche di governance nelle applicazioni di intelligenza artificiale al fine di dimostrare la conformità e proteggere le parti interessate dai danni.
“Una buona intelligenza artificiale ha bisogno di una grande governance”, ha affermato Habayeb. “Molte aziende non hanno idea da dove cominciare a governare la propria IA. Altri hanno solide fondamenta di politiche e gestione del rischio aziendale, ma nessuna reale operatività che li circonda. Non hanno una sede centrale per le loro politiche, prove di buone pratiche e collaborazione tra le funzioni. Abbiamo creato GovernML per risolvere entrambi”.
L’importanza della governance dell’IA
Un’efficace governance dell’IA richiede una solida base di politiche di gestione del rischio e una stretta collaborazione tra le parti interessate della modellazione e della gestione del rischio. Troppo spesso, le conversazioni sulla gestione dei rischi dell’IA si concentrano strettamente su concetti tecnici come spiegabilità del modello, monitoraggio o test di distorsione. Questa attenzione riduce al minimo la più ampia sfida aziendale della governance del ciclo di vita e ignora la definizione delle priorità delle politiche e l’abilitazione della supervisione umana.
In che modo questo sistema di registrazione si adatterebbe ad altri sistemi aziendali, come app di governance dei dati, gestione del rischio legale, sicurezza, ecc.? O deve necessariamente integrarsi su scala aziendale?
“Monitaur ha solide API dietro la sua piattaforma che consentono il push and pull delle informazioni”, ha detto Habayeb a VentureBeat. “Per sfruttare il potenziale di un vero SOR aziendale per la governance del modello, una soluzione deve essere in grado di ‘collaborare’ con organizzazioni, sistemi, policy e dati chiave di altre funzioni. Una buona governance dell’IA dovrebbe supportare la connettività tra i sistemi, la trasparenza tra i dipartimenti e ridurre la rilavorazione ove possibile”.
Habayeb ha offerto esempi di casi d’uso in cui un problema relativo all’IA potrebbe diventare un problema importante.
“Al giorno d’oggi, non devi più essere un esperto per capire che i sistemi di IA avranno pregiudizi ; la domanda ora è se un’organizzazione può dimostrare i propri sforzi per mitigare il danno”, ha affermato Habayeb. “I dati sono stati valutati per bias? Gli sviluppatori sono stati istruiti sulle politiche etiche? Il modello è ottimizzato per la metrica giusta? Ha firmato legalmente? Questi sono esempi di controlli chiave dei pregiudizi nel ciclo di vita di una governance responsabile dell’IA. GovernML guida le aziende a costruire e mettere in evidenza queste e altre politiche critiche. In questo modo non solo si attenua il potenziale di eventi avversi, ma si riduce anche l’esposizione legale, finanziaria e reputazionale quando si verificano.
“Le persone perdonano gli errori; non perdonano la negligenza”, ha detto Habayeb.
Esecuzione automatica e manuale degli strumenti di governance dell’IA
Sebbene ci siano basi per la gestione del rischio e la governance del modello in alcuni settori, l’esecuzione di questi è piuttosto manuale, ha affermato David Cass, ex regolatore bancario per la Federal Reserve e CISO presso IBM.”Ora stiamo vedendo più modelli, con una complessità crescente, utilizzati in modi più efficaci, in più settori che non hanno esperienza con la governance dei modelli”, ha affermato Cass in un avviso ai media. “Abbiamo bisogno di software per distribuire i metodi e l’esecuzione della governance in modo più scalabile. GovernML prende ciò che è meglio dei metodi collaudati, aggiunge la nuova complessità dell’IA e il software consente l’intero ciclo di vita”.
L’emergere e la necessità della governance dell’IA non è semplicemente il risultato degli investimenti nell’IA o delle normative sull’IA; è un chiaro esempio di una più ampia necessità di sinergizzare le categorie di software di rischio, governance e conformità in generale, ha affermato Bradley Shimmin, analista capo, piattaforme AI, analisi e gestione dei dati di Omdia.
“Considerando il software come un’industria a sé stante e confrontando la sua regolamentazione rispetto ad altri importanti settori o industrie, il rapporto impatto-regolazione del software è un valore anomalo”, ha affermato Shimmin in un avviso ai media. “GovernML offre un approccio molto ponderato al più ampio problema dell’IA; mette anche Monitaur in una posizione interessante per l’espansione futura all’interno di questo tema molto più ampio”.
GovernML gestisce le policy per l’etica dell’IA
L’integrazione di GovernML nella piattaforma Monitaur ML Assurance supporta un’offerta di governance dell’IA del ciclo di vita, che copre tutto, dalla gestione delle politiche al monitoraggio tecnico e ai test fino alla supervisione umana. Centralizzando politiche, controlli e prove su tutti i modelli avanzati dell’impresa, GovernML rende possibile la gestione di programmi di intelligenza artificiale responsabili, conformi ed etici, ha affermato Abayeb.
Il nuovo software consente ai leader aziendali, di rischio e conformità e tecnici di:
Crea una libreria completa di politiche di governance che si adattano a specifiche esigenze aziendali, inclusa la possibilità di sfruttare immediatamente i controlli proprietari di Monitaur basati sulle migliori pratiche per gli audit di AI e ML.
Fornire un accesso centralizzato alle informazioni sul modello e la prova di una pratica responsabile durante tutto il ciclo di vita del modello.
Incorpora più linee di difesa e un’adeguata separazione dei compiti in un sistema di registrazione conforme e sicuro.
Ottieni consenso e guida l’allineamento interfunzionale attorno ai progetti di intelligenza artificiale.
Monitaur ha sede a Boston, Massachusetts