Microsoft introduce nuove risorse e strumenti per aiutare a implementare l’intelligenza artificiale in modo responsabile
 
Microsoft ha lanciato nuovi strumenti e linee guida per consentire ai leader di prodotto di sviluppare l’intelligenza artificiale in modo responsabile dalla ricerca alla pratica
 
In collaborazione con Boston Consulting Group (BCG), Microsoft ha introdotto linee guida per i leader di prodotto progettate per aiutare a stimolare importanti conversazioni su come mettere in pratica i principi di intelligenza artificiale responsabile . Questa guida è distinta dai processi interni di Microsoft e riflette le prospettive di entrambe le organizzazioni. Microsoft ha anche creato strumenti per aiutare i professionisti del machine learning a identificare i problemi, diagnosticare le cause e mitigare i problemi prima di distribuire le app.

“Passare dai principi alle pratiche è difficile, date le complessità, le sfumature e le dinamiche dei sistemi e delle applicazioni di intelligenza artificiale. Non ci sono soluzioni rapide e nessun proiettile d’argento che risolvono tutti i rischi con le applicazioni delle tecnologie AI. Ma possiamo fare progressi sfruttando il meglio della ricerca e dell’ingegneria per creare strumenti volti allo sviluppo responsabile e alla messa in campo delle tecnologie AI”, ha scritto Eric Horvitz , Chief Scientific Officer di Microsoft , in un post sul blog.

Le dieci linee guida sono raggruppate in tre fasi:

Valutare e prepararsi: valutare i vantaggi del prodotto, la tecnologia, i potenziali rischi e il team.
Progetta, costruisci e documenta: esamina gli impatti, le considerazioni univoche e la pratica della documentazione.
Convalida e supporto: selezionare le procedure di test e il supporto per garantire che i prodotti funzionino come previsto.
Insieme a questi, l’azienda ha rilasciato una dashboard AI responsabile che presenta le funzionalità Error Analysis, Fairlearn, InterpretML, DiCE ed EconML in un unico pannello di vetro per assistere gli sviluppatori AI con equità, interpretabilità e affidabilità dei modelli AI. All’interno della dashboard, gli strumenti possono comunicare tra loro e mostrare approfondimenti in un’unica tela interattiva per un’esperienza di debug e decisione end-to-end.

 Gli strumenti open source che Microsoft ha creato includono:

Analisi degli errori : analizza e diagnostica gli errori del modello
Fairlearn : valuta e mitiga i problemi di equità nei sistemi di intelligenza artificiale
InterpretML : fornisce modelli verificabili di apprendimento automatico per migliorare il debug di dati e inferenze
DiCE : consente l’analisi controfattuale per il debug di previsioni individuali
EconML : aiuta i decisori a deliberare sugli effetti delle azioni nel mondo utilizzando l’inferenza causale
HAX Toolkit : guida i team attraverso la creazione di esperienze collaborative uomo-IA fluide e responsabili

Di ihal