Mentre l’intelligenza artificiale fiorisce nella GenAI, emerge la necessità di una sorta di giuramento di Ippocrate digitale per i creatori di queste tecnologie. Sebbene l’etica nell’intelligenza artificiale sia diventata oggetto di discussione negli ultimi tempi, gli esperti di etica a livello globale esplorano l’argomento da decenni, suggerendo strutture su cui costruire la tecnologia.

Tra tutti, sono stati selezionati sette framework etici di intelligenza artificiale affinché gli sviluppatori possano incorporare l’etica nelle loro innovazioni tecnologiche.

Responsible Tech Playbook: Manuale di tecnologia responsabile
Nel 2021, i dipendenti di Thoughtworks hanno messo insieme un catalogo di tecniche che possono essere utilizzate per fare un passo indietro e comprendere le implicazioni etiche del loro lavoro, che hanno pubblicato come Responsible Tech Playbook. Il quadro di 50 diapositive evidenzia tre tecniche, sollecita diversi punti di vista, identifica e affronta le sfide etiche prima che diventino problemi più grandi e garantisce che la tecnologia sia progettata per soddisfare le esigenze e supportare i valori delle persone. Sembra esserci una discreta sovrapposizione tra gli approcci, quindi lo studio evidenzia un sottoinsieme di tre fasi che ottiene gran parte del beneficio con un impatto relativamente piccolo sugli attuali processi di un’azienda.

PiE
Sviluppato dal fondatore di AI Ethics Lab, Cansu Canca , il modello Puzzle-solving in Ethics (PiE) è un modello per integrare l’etica nel ciclo di innovazione dell’IA implementato attraverso la consultazione dell’AI Ethics Lab. Il modello introdotto nel 2018 si concentra sul nucleo centrale “Qual è la cosa giusta da fare?” questione in modo sistematico, integrando analisi e soluzioni etiche in ogni fase dell’innovazione.

Alethia Framework
Nel 2020, Rolls Royce ha pubblicato una guida completa per le aziende per verificare e bilanciare i propri progetti di intelligenza artificiale in modo equo, etico e affidabile. La società ha affermato che si tratta essenzialmente di una lista di controllo per le aziende per considerare l’impatto dell’utilizzo dell’intelligenza artificiale prima di decidere se procedere. Il documento esamina un totale di 32 aspetti relativi all’impatto sociale, alla governance, alla fiducia e alla trasparenza e richiede ai dirigenti e ai consigli di amministrazione di fornire prova che questi siano stati rigorosamente considerati. La società ha rilasciato una versione aggiornata più tardi nel 2021.

Quadro di gestione del rischio AI del NIST
Il quadro guida le agenzie governative e il settore privato nella gestione dei nuovi rischi legati all’IA e nella promozione di un’IA responsabile. La natura generica dell’intelligenza artificiale la rende impegnativa” per la gestione dei rischi legati alla tecnologia dell’informazione. Il quadro introduce dimensioni “socio-tecniche” attraverso l’approccio. Gli esperti hanno sottolineato la profondità del quadro, in particolare la sua specificità nell’implementazione di controlli e politiche per governare meglio i sistemi di intelligenza artificiale all’interno di diversi contesti organizzativi.

Protezione degli algoritmi di machine learning da parte dell’ENISA
L’Agenzia dell’Unione europea per la sicurezza informatica ( ENISA ) ha pubblicato un quadro nel dicembre 2021, affrontando la sicurezza degli algoritmi ML. Il rapporto si concentra principalmente sull’identificazione dei potenziali rischi e punti deboli associati alla tecnologia. Inoltre, raccomanda una serie di misure di sicurezza per aggiornare la sicurezza informatica nei sistemi basati sull’apprendimento automatico. Una sfida evidenziata nel rapporto è il delicato equilibrio tra l’implementazione dei controlli di sicurezza e il mantenimento dei livelli di prestazione attesi di questi sistemi.

Quadro operativo etico
In collaborazione con Institute for the Future (IFTF), Omidyar Network , una società di investimento della Silicon Valley, ha compiuto il primo passo con il rilascio del toolkit “Ethical OS” nel 2018. Il quadro tenta di affrontare le sfide di grande preoccupazione che sono emerse come una questione conseguenza involontaria della tecnologia. Si tratta di un kit di strumenti in tre parti per aiutare gli esperti di tecnologia a comprendere in che modo la tecnologia potrebbe essere compromessa in futuro e a creare misure di salvaguardia contro i rischi futuri.

Big tech e sostenibilità sociale: un quadro etico
Il documento del 2020 scritto da Bernard Arogyaswamy sostiene che la sostenibilità è costituita da tre forze: economica, sociale ed ecologica, in tensione tra loro. Il quadro suggerisce che le aziende dovrebbero avere regole chiare su ciò che è giusto e sbagliato, e le persone che fanno rispettare queste regole dovrebbero avere abbastanza potere. Sottolinea l’importanza dei criteri etici, degli impatti sociali e di ciò che pensano gli utenti quando utilizzano la grande tecnologia in un modo che sia positivo a lungo termine e segua principi etici.

Di Fantasy