Daniel Nelson
I ricercatori dell’intelligenza artificiale propongono di assegnare taglie alla propensione all’intelligenza artificiale per rendere l’IA più etica
Un team di ricercatori di intelligenza artificiale di aziende e laboratori di sviluppo dell’IA come Intel, Google Brain e OpenAI ha raccomandato l’uso di doni per contribuire a garantire l’uso etico dell’IA. Il team di ricercatori ha recentemente pubblicato una serie di proposte sull’utilizzo dell’IA etica e ha incluso un suggerimento che premiare le persone per aver scoperto pregiudizi nell’IA potrebbe essere un modo efficace per rendere l’IA più giusta.

Come riporta VentureBeat , i ricercatori di una varietà di aziende negli Stati Uniti e in Europa si sono uniti per mettere insieme una serie di linee guida etiche per lo sviluppo dell’IA, nonché suggerimenti su come soddisfare le linee guida. Uno dei suggerimenti dei ricercatori è stato quello di offrire doni agli sviluppatori che trovano pregiudizi nei programmi di intelligenza artificiale. Il suggerimento è stato formulato in un documento intitolato ” Verso uno sviluppo fidato dell’IA: meccanismi per supportare i reclami verificabili “.

Come esempi dei pregiudizi che il team di ricercatori spera di affrontare, dati e algoritmi distorti sono stati trovati in tutto, dalle applicazioni sanitarie ai sistemi di riconoscimento facciale utilizzati dalle forze dell’ordine. Uno di questi casi di pregiudizio è lo strumento di valutazione del rischio PATTERN che è stato recentemente utilizzato dal Dipartimento di Giustizia degli Stati Uniti per valutare i prigionieri e decidere quali potrebbero essere rimandati a casa riducendo le dimensioni della popolazione carceraria in risposta alla pandemia di coronavirus.

La pratica di premiare gli sviluppatori per aver trovato comportamenti indesiderati nei programmi per computer è vecchia , ma questa potrebbe essere la prima volta che un comitato etico per l’IA ha seriamente avanzato l’idea come un’opzione per combattere la distorsione dell’IA. Sebbene sia improbabile che ci siano abbastanza sviluppatori di intelligenza artificiale per trovare abbastanza preconcetti che l’IA possa essere garantita etica, ciò aiuterebbe comunque le aziende a ridurre i pregiudizi generali e ad avere un’idea di quali tipi di pregiudizi perdono nei loro sistemi di intelligenza artificiale.

Gli autori dell’articolo hanno spiegato che il concetto di bug bounty può essere esteso all’intelligenza artificiale con l’uso di bias e taglie di sicurezza e che l’uso corretto di questa tecnica potrebbe portare a set di dati e modelli meglio documentati. La documentazione rispecchierebbe meglio i limiti sia del modello che dei dati. I ricercatori hanno anche notato che la stessa idea potrebbe essere applicata ad altre proprietà dell’IA come interpretabilità, sicurezza e protezione della privacy.

Mentre sempre più discussioni si svolgono intorno ai principi etici dell’IA, molti hanno notato che i principi da soli non sono sufficienti e che devono essere intraprese azioni per mantenere l’etica dell’IA. Gli autori dell’articolo osservano che “i regolamenti e le norme esistenti nell’industria e nel mondo accademico sono insufficienti per garantire uno sviluppo responsabile dell’IA”. Il co-fondatore di Google Brain e Andrew Ng, leader del settore dell’IA, ha anche affermato che i principi guida da soli non hanno la capacità di garantire che l’IA sia utilizzata in modo responsabile e corretto, dicendo che molti di loro devono essere più espliciti e avere idee attuabili.

La raccomandazione di caccia alle taglie del gruppo di ricerca combinato è un tentativo di andare oltre i principi etici in un’area di azione etica. Il team di ricerca ha anche formulato una serie di altre raccomandazioni che potrebbero stimolare un’azione etica nel campo dell’IA.

Il team di ricerca ha formulato una serie di altre raccomandazioni che le aziende possono seguire per rendere più etico l’uso dell’IA. Suggeriscono che un database centralizzato di incidenti di intelligenza artificiale dovrebbe essere creato e condiviso tra la più ampia comunità di intelligenza artificiale. Allo stesso modo, i ricercatori propongono di stabilire una pista di controllo e che queste piste conservino le informazioni relative alla creazione e alla distribuzione di applicazioni critiche per la sicurezza nelle piattaforme di intelligenza artificiale.

Al fine di preservare la privacy delle persone, il team di ricerca ha suggerito di utilizzare tutte le tecniche incentrate sulla privacy come comunicazioni crittografate, apprendimento federato e privacy differenziale. Oltre a ciò, il team di ricerca ha suggerito che le alternative open source dovrebbero essere rese ampiamente disponibili e che i modelli di IA commerciali dovrebbero essere attentamente esaminati. Infine, il team di ricerca suggerisce di aumentare i finanziamenti del governo in modo che i ricercatori accademici possano verificare le richieste di prestazioni hardware.

Di ihal