Credo AI annuncia la prima piattaforma di governance dell’IA responsabile al mondo
Una nuova ondata di imminenti normative sull’IA globali, federali e statali richiede che le organizzazioni debbano preparare e sviluppare un approccio solido alla governance dell’IA responsabile
La piattaforma di intelligenza artificiale responsabile di Credo AI è scalabile e personalizzabile incentrata sulla valutazione dell’impatto dell’IA e sulla gestione del rischio: è l’unica soluzione di governance dell’IA basata sul contesto sul mercato per aiutare le organizzazioni a definire i requisiti dell’IA responsabile in base al contesto normativo e aziendale per creare una fiducia duratura con l’IA
Credo AI è anche open sourcing del suo framework di valutazione tecnica AI/ML, Credo AI Lens, rendendo più facile per i team di sviluppo tecnico valutare i loro modelli ML per equità, prestazioni e spiegabilità
Credo AI , l’azienda dietro la prima soluzione di governance globale e contestuale per l’IA, ha annunciato oggi la disponibilità della sua piattaforma di intelligenza artificiale responsabile, un prodotto SaaS che fornisce alle organizzazioni gli strumenti per standardizzare e ridimensionare il loro approccio all’IA responsabile.
Mentre stanno ancora emergendo standard, benchmark e normative normative chiare, molte organizzazioni stanno lottando per mettere in pratica i loro principi di intelligenza artificiale e determinare come appare “buono” per i loro sistemi di intelligenza artificiale. La piattaforma di intelligenza artificiale responsabile di Credo AI aiuta le aziende a rendere operativa l’IA responsabile fornendo una valutazione del rischio e della conformità dell’IA basata sul contesto ovunque si trovino nel loro percorso di intelligenza artificiale.
Credo AI aiuta i team interfunzionali ad allinearsi ai requisiti di intelligenza artificiale responsabile per equità, prestazioni, trasparenza, privacy, sicurezza e altro in base al contesto aziendale e normativo selezionando da policy guardrail pronte all’uso e basate sui casi d’uso. Inoltre, la piattaforma consente ai team di valutare facilmente se i loro casi d’uso di intelligenza artificiale soddisfano tali requisiti attraverso valutazioni tecniche di modelli ML, set di dati e interrogazione dei processi di sviluppo.
La piattaforma, che è stata costruita su apprendimenti intersettoriali in spazi sia regolamentati che non regolamentati, è completata da Credo AI Lens, il framework di valutazione open source di Credo AI che rende la valutazione completa dell’IA responsabile più strutturata e interpretabile per le organizzazioni di tutte le dimensioni.
Il rilascio della piattaforma di intelligenza artificiale responsabile di Credo AI include anche le seguenti funzionalità:
Integrazioni di valutazione senza soluzione di continuità: Credo AI acquisisce le valutazioni del modello programmatico e del set di dati da Credo AI Lens e le traduce automaticamente in punteggi di rischio nelle aree di rischio dell’IA identificate come equità, prestazioni, privacy e sicurezza
Allineamento multi-stakeholder : Credo AI riunisce team di prodotti, data science e supervisione per allinearsi ai giusti requisiti di governance in base al contesto aziendale e normativo
Supervisione personalizzabile basata sul rischio: Credo AI consente ai team di ottimizzare il livello di governance human-in-the-loop necessario in base al livello di rischio del caso d’uso
Prontezza normativa pronta all’uso: Credo AI fornisce analisi delle lacune attraverso i guardrail pronti all’uso che rendono operativi gli standard del settore, nonché le normative esistenti e future
Garanzia e attestazione : Credo AI funge da repository centrale per le prove di governance automatizza la creazione di artefatti di governance critici, inclusi audit trail di provenienza delle decisioni, modelli e schede di casi d’uso AI e rapporti di conformità e rischi di AI attestati
Gestione del rischio dei fornitori di intelligenza artificiale: Credo AI consente inoltre alle organizzazioni di valutare facilmente il rischio di IA e la conformità di prodotti e modelli di IA/ML di terze parti tramite un portale di valutazione del rischio del fornitore dedicato
“Credo AI mira a essere uno sherpa per le imprese nelle loro iniziative di intelligenza artificiale responsabile per portare supervisione e responsabilità all’intelligenza artificiale e definire come appare il loro framework di intelligenza artificiale”, ha affermato Navrina Singh, fondatrice e CEO di Credo AI. “Abbiamo sperimentato una soluzione incentrata sul contesto, completa e continua per fornire un’IA responsabile. Le aziende devono allinearsi ai requisiti di IA responsabile tra le diverse parti interessate nella tecnologia e nelle funzioni di supervisione e adottare misure deliberate per dimostrare l’azione su tali obiettivi e assumersi la responsabilità di i risultati”.
Molteplici regolamenti governativi sull’IA sono all’orizzonte, tra cui l’Artificial Intelligence Act (AIA) dell’Unione Europea e il disegno di legge di New York City che afferma che gli strumenti decisionali sull’occupazione dell’IA devono essere controllati per individuare eventuali pregiudizi prima del 1 gennaio 2023 . Le organizzazioni devono sfruttare o costruire responsabilmente il proprio quadro di governance dell’IA in previsione di queste e di altre normative governative in evoluzione.
Ad oggi, AI Governance è stata manuale, non scalabile e incapace di fornire la supervisione necessaria per impedire che l’IA si comporti in modi non intenzionali. Ciò lascia le aziende esposte a rischi estremi e spese generali operative, creando il desiderio di una nuova soluzione. La Responsible AI Platform di Credo AI è la prima piattaforma di governance dell’IA che crea strutture di responsabilità durante l’intero ciclo di vita dell’IA, dall’acquisizione dei dati all’implementazione del modello. Con Credo AI, la governance consente alle organizzazioni di implementare i sistemi di intelligenza artificiale più velocemente gestendo l’esposizione al rischio.
Credo AI Lens
Credo AI Lens è un framework di valutazione dell’IA responsabile (RAI) open source. Fornisce un unico punto di accesso a un ecosistema curato di valutazioni sviluppate da Credo AI e dalla più ampia comunità open source.
Lens copre diverse aree di rischio dell’IA, tra cui equità, sicurezza, prestazioni, trasparenza e altre, che possono essere valutate su molti tipi di modelli e set di dati. Inoltre, Lens è estensibile e facilmente ampliabile con moduli personalizzati derivati da altri strumenti o codice proprietario.
Standardizzando la valutazione dell’IA, Lens consente ai professionisti del ML di integrare facilmente la valutazione RAI di modelli e set di dati nel flusso di lavoro esistente e accelera i tempi di produzione di nuove soluzioni. Se abbinate alla piattaforma di governance dell’IA responsabile, le valutazioni di Lens vengono tradotte in una forma praticabile e comprensibile da diverse parti interessate, rendendo lo sviluppo dei sistemi di intelligenza artificiale un processo più collaborativo.
Con Credo AI, le organizzazioni sono in grado di comprendere meglio e risolvere i potenziali punti ciechi della governance all’interno delle loro applicazioni di intelligenza artificiale, modelli ML, set di dati e processi. I clienti esistenti hanno accesso alla versione disponibile e all’elenco completo delle funzionalità di Credo AI Responsible AI Governance. I nuovi clienti possono richiedere una demo o visitare credo.ai per ulteriori informazioni.
Informazioni su Credo AI
Fondata nel 2020, Credo AI è un’azienda sostenuta da venture capital con la missione di consentire alle organizzazioni di fornire un’IA responsabile (RAI) su larga scala. Credo AI offre una governance basata sul contesto e una valutazione del rischio per garantire uno sviluppo e un utilizzo conformi, equi, trasparenti e verificabili dell’IA. La piattaforma Intelligent SaaS di Credo AI consente alle aziende di misurare, monitorare e gestire i rischi introdotti dall’IA su larga scala. Credo AI consente alle organizzazioni di creare un’IA con i più elevati standard etici, in modo che siano in grado di coglierne gli enormi vantaggi mitigando le conseguenze negative non intenzionali. I clienti di Credo AI includono uno dei più grandi fornitori di servizi cloud, un fornitore di servizi finanziari Fortune 500 Global e uno dei più grandi appaltatori della difesa tra gli altri Global 2000s.