Analisi Critica degli Strumenti di Governance dell’Intelligenza Artificiale

Un recente rapporto del World Privacy Forum ha analizzato 18 strumenti di governance dell’intelligenza artificiale (IA) utilizzati da governi e organizzazioni multilaterali. L’analisi ha rivelato che oltre un terzo (38%) di questi strumenti presenta “correzioni errate”. In altre parole, le tecniche e gli strumenti progettati per valutare e misurare i sistemi di IA, soprattutto per quanto concerne l’equità e la spiegabilità, hanno mostrato carenze o inefficacia. Questi strumenti mancano spesso dei meccanismi di controllo della qualità tipici del software e possono includere metodi di misurazione inadeguati per contesti diversi da quelli originali.

Problemi con Strumenti Esistenti

Anche aziende leader come Microsoft, IBM e Google, che sviluppano sistemi di IA, hanno contribuito allo sviluppo e alla diffusione di questi strumenti. Per esempio, il rapporto evidenzia che lo strumento AI Fairness 360 di IBM, pur essendo promosso come guida all’integrazione di principi etici nell’uso dell’IA, ha basi di ricerca che hanno ricevuto critiche significative nel contesto accademico.

Mancanza di Standard per la Garanzia della Qualità

Pam Dixon, fondatrice e direttrice esecutiva del World Privacy Forum, ha sottolineato che molti strumenti di governance dell’IA mancano di requisiti standardizzati per la garanzia e la valutazione della qualità. Questi strumenti, creati per un determinato contesto, possono essere utilizzati in modi inappropriati e in contesti completamente diversi.

Definizione e Ruolo degli Strumenti di Governance dell’IA

Gli strumenti di governance dell’IA sono definiti come metodi e tecniche utilizzati per valutare i sistemi IA in termini di inclusività, equità, spiegabilità, privacy, sicurezza e altri aspetti di affidabilità. Tuttavia, il loro uso può talvolta creare un falso senso di sicurezza, causare problemi imprevisti e minare l’efficacia dei sistemi di IA.

Opportunità di Miglioramento nell’Ecosistema di Governance dell’IA

In seguito all’approvazione dell’EU AI Act e all’emissione del Decreto esecutivo sull’IA del presidente Biden, emerge l’opportunità di migliorare l’ecosistema di governance dell’IA. Kate Kaye, vicedirettrice del World Privacy Forum, rileva che questi strumenti rappresentano il modo in cui i governi implementano la politica sull’IA e saranno cruciali nell’applicazione di future leggi e regolamenti.

Esempi di Applicazione Inappropriata

Kaye cita l’uso della regola dell’80% nel diritto del lavoro statunitense, che viene ora applicata in modo inappropriato in alcuni strumenti di governance dell’IA in contesti non correlati all’occupazione, come in settori privati a Singapore, India e altri paesi.

La Pressione sui Governi e le Organizzazioni

I governi e le organizzazioni sentono la pressione di creare regolamenti e implementare la governance dell’IA. Tuttavia, l’introduzione di metodi problematici nella politica può incorporare nuovi problemi.

Prospettive di Miglioramento per il 2024

Dixon e Kaye esprimono ottimismo per miglioramenti nel panorama degli strumenti di governance dell’IA nel 2024. L’OCSE e il National Institute of Standards and Technology (NIST) hanno espresso interesse nel collaborare per creare un ambiente valutativo con test rigorosi e buone procedure basate su prove. Con uno sforzo concentrato, si prevede che entro sei mesi si possano osservare miglioramenti significativi.

 

Di ihal