Credo AI, un’azienda specializzata nella governance dell’intelligenza artificiale, ha lanciato una nuova piattaforma che si integra con strumenti e operazioni di AI di terze parti per migliorare la visibilità delle politiche di intelligenza artificiale responsabile.
L’Integration Hub di Credo AI è ora disponibile e consente alle aziende di collegare piattaforme utilizzate per creare applicazioni di intelligenza artificiale generativa, come Amazon SageMaker, MLFlow e Microsoft Dynamics 365, a una piattaforma di governance centralizzata. Anche piattaforme come Asana, ServiceNow e Jira possono essere integrate nell’Integration Hub.
Con l’Integration Hub, le aziende possono connettersi a una piattaforma di governance come quella di Credo AI senza dover caricare manualmente la documentazione riguardante gli standard di sicurezza. L’hub raccoglierà automaticamente i metadati dalle applicazioni che contengono tali metriche.
Credo AI ha dichiarato che l’Integration Hub si collegherà direttamente agli store di modelli esistenti, caricando automaticamente i modelli sulla piattaforma di governance per controlli di conformità. Inoltre, l’hub fornirà set di dati per la governance.
Navrina Singh, fondatrice e CEO di Credo AI, ha affermato: “L’hub è stato progettato per integrare la governance dell’intelligenza artificiale nel processo di sviluppo fin dall’inizio, sia che si tratti di seguire le normative sulla divulgazione dei dati o le politiche interne sull’uso dell’intelligenza artificiale”.
Sondaggi recenti hanno rivelato che la governance dell’intelligenza artificiale è diventata una priorità per molte aziende, anche se poche hanno valutato adeguatamente i rischi associati. Credo AI si propone di semplificare il processo di identificazione dei rischi e delle problematiche di conformità, rendendo più accessibile l’adozione di pratiche di AI responsabile.
Altre aziende, come IBM con la sua suite di prodotti Watsonx e Collibra, offrono strumenti di governance per monitorare e documentare i programmi di intelligenza artificiale.
Credo AI verifica le applicazioni per potenziali rischi, come l’accuratezza, e si posiziona come un mezzo per aiutare le aziende a conformarsi alle normative attuali e future sull’intelligenza artificiale. Anche se le regolamentazioni specifiche sull’AI generativa sono ancora scarse, ci sono leggi esistenti sulla privacy e la conservazione dei dati che alcune aziende hanno già iniziato a seguire.
Singh ha citato la legge 144 di New York City, che vieta l’uso di strumenti automatizzati per le decisioni di assunzione, come un esempio di normativa che richiede rapporti sulla governance dell’AI. “Credo AI codifica questa legge per monitorare il tuo sistema di AI Ops, raccogliendo i metadati necessari per soddisfare i requisiti legali”, ha spiegato Singh.