Man mano che l’intelligenza artificiale si infiltra nella tecnologia, negli ambienti aziendali e sociali, il dibattito sulle corrette politiche di intelligenza artificiale per la privacy, la sicurezza e la responsabilità sociale continua ad intensificarsi.
In tale contesto, IBM ha pubblicato un documento programmatico sulla regolamentazione dell’IA che delinea cinque imperativi politici per le aziende, siano essi fornitori o proprietari di sistemi di intelligenza artificiale. Le politiche, parola per parola di IBM, sono:
Designare un funzionario responsabile dell’etica AI. Per controllare il rispetto di queste aspettative, i fornitori e i proprietari devono designare una persona responsabile di AI affidabile, come un funzionario responsabile dell’etica dell’IA.
Regole diverse per rischi diversi. Tutte le entità che forniscono o possiedono un sistema di IA devono condurre una valutazione iniziale ad alto livello del potenziale di danno della tecnologia. E la regolamentazione dovrebbe trattare diversi casi d’uso in modo diverso in base al possibile rischio intrinseco.
Non nascondere la tua IA. La trasparenza genera fiducia; e il modo migliore per promuovere la trasparenza è attraverso la divulgazione che chiarisce lo scopo di un sistema di intelligenza artificiale ai consumatori e alle imprese. Nessuno dovrebbe essere indotto a interagire con l’IA.
Spiega la tua intelligenza artificiale. Qualsiasi sistema di intelligenza artificiale sul mercato che sta prendendo decisioni o raccomandazioni con implicazioni potenzialmente significative per gli individui dovrebbe essere in grado di spiegare e contestualizzare come e perché è arrivato a una conclusione particolare.
Metti alla prova la tua intelligenza artificiale per pregiudizi. Tutte le organizzazioni nel ciclo di vita dello sviluppo dell’IA hanno un certo livello di responsabilità condivisa nel garantire che i sistemi di intelligenza artificiale che progettano e distribuiscono siano equi e sicuri. Ciò richiede test per correttezza, distorsione, solidità e sicurezza e l’adozione di azioni correttive, se necessario, sia prima della vendita o dell’implementazione sia dopo che è stato reso operativo. Per i casi di utilizzo a rischio più elevato, questo dovrebbe essere rafforzato attraverso la “coregolamentazione”, in cui le aziende eseguono test e il governo effettua controlli a campione per verificarne la conformità.