All’inizio di quest’estate, la Task Force National Artificial Intelligence Research Resource (NAIRR) ha rilasciato una richiesta di informazioni (RFI) su come costruire una roadmap di implementazione per un’infrastruttura di ricerca IA condivisa. Insieme alle richieste di idee su come possedere e implementare questa agenda, ha richiesto indicazioni su come garantire al meglio la protezione della privacy, delle libertà civili e dei diritti civili in futuro. Per raggiungere questo obiettivo, le risorse per l’istruzione e la formazione al ragionamento etico basate sui valori devono essere al centro della strategia della Task Force.

Qual è la posta in gioco
L’approvazione da parte del Congresso del National Defense Authorization Act for Fiscal 2021 che dirige la Casa Bianca Biden per creare la Task Force NAIRR potrebbe essere consequenziale agli ideali democratici dell’America come numerose guerre, politiche e movimenti per i diritti civili nel nostro passato.

 
Sebbene i primi annunci pubblici della Task Force NAIRR non si riferiscano esplicitamente a governi stranieri, non commettere errori che la competizione geopolitica con Cina, Russia e altri stati-nazione incombe sull’urgenza della sua missione.

Dopo il Progetto Manhattan e la corsa allo sviluppo della bomba atomica, una tecnologia non è stata così importante nel suo potenziale per rimodellare l’equilibrio di potere tra la democrazia occidentale e ciò che l’Institute for Human-Centered Artificial Intelligence di Stanford chiama ” autoritarismo digitale “. Simile alla corsa agli armamenti nucleari, il percorso intrapreso dagli Stati Uniti nello sviluppo e nell’implementazione di questa tecnologia determinerà l’ambito della libertà e della qualità della vita per miliardi di persone sulla Terra. La posta in gioco è così alta.

I precedenti parlano chiaro

Sebbene la data di consegna dichiarata per il rapporto e la tabella di marcia della NAIRR Task Force non sia fino a novembre 2022, è importante tenere presente che garantire un’etica nell’intelligenza artificiale che sostenga i valori dell’America è un processo lungo ed estremamente centrale per l’identità americana. Tuttavia, il precedente per una roadmap etica e inclusiva è scritto nella nostra storia e possiamo guardare alle professioni militari, mediche e legali per esempi di come farlo con successo.

Il militare. Il 26 luglio 1948, il presidente Harry Truman emanò l’ordine esecutivo 9981 per avviare la desegregazione delle forze armate. Ciò ha portato alla creazione del Comitato presidenziale per l’uguaglianza di trattamento e le opportunità nei servizi armati e uno dei rapporti etici e sui valori più consequenziali nella storia degli Stati Uniti. Ma vale la pena notare che non è stato fino al 2 gennaio 2021 che il generale a 4 stelle in pensione Lloyd Austin III è stato nominato primo segretario alla Difesa nero. Incorporare l’etica e i valori americani nelle discipline legate all’intelligenza artificiale richiederà lo stesso sforzo sostenuto e inesorabile.

Il campo medico. Il Codice di etica medica dell’American Medical Association (AMA) è considerato il gold standard dell’etica e dei valori in una disciplina professionale, che risale al V secolo a.C. e agli ideali del medico greco Ippocrate di “alleviare la sofferenza e promuovere il bene -essere in un rapporto di fedeltà con il paziente”. Nonostante questa profonda e ricca storia dell’etica al centro della medicina, ci volle fino al 1977 perché la Johns Hopkins diventasse la prima scuola di medicina della nazione a implementare un corso obbligatorio sull’etica medica nel suo curriculum di base.

La legge . Le associazioni degli avvocati iniziarono a introdurre codici etici per avvocati e giudici negli Stati Uniti all’inizio del 1800, ma fu solo all’inizio del XX secolo e la diffusa adozione del Metodo Harvard nelle scuole di diritto che l’etica legale fu legata alla responsabilità professionale e una chiara serie di doveri morali verso la società erano incorporati nell’educazione legale e nella professione.

La strada davanti
Le discipline legate all’intelligenza artificiale (informatica, ingegneria e design) sono molto indietro rispetto ad altre professioni nei requisiti etici, nell’istruzione e nella formazione. Esistono, tuttavia, dozzine di promettenti organizzazioni e iniziative guidate dall’etica tecnologica che lavorano per promuovere e unificare l’educazione e la formazione al ragionamento etico nell’IA.

Istruzione superiore. Incorporare l’etica e la formazione sui valori nel curriculum di base di ogni ingegnere, progettista e informatico con formazione universitaria deve essere un obiettivo fondamentale di qualsiasi strategia nazionale di IA.

A tal fine, il Markkula Center for Applied Ethics presso l’Università di Santa Clara è uno dei produttori più prolifici di programmi di etica tecnologica attuabili, casi di studio e formazione decisionale per studenti e professionisti. Allo stesso modo, il MIT ha iniziato a sviluppare un curriculum etico specifico per l’IA per questo scopo e dovrebbe essere consultato anche durante il processo di pianificazione dell’implementazione. Inoltre, l’ etica negli istituti di IA si sta creando in tutto il mondo e rappresenta un terreno fertile per risorse da aggiungere alla Task Force NAIRR.

Sebbene la maggior parte di questi sforzi si concentri sull’istruzione superiore e sui professionisti attuali, la Task Force ha anche l’opportunità di iniziare a condividere valori e risorse etiche con i grandi programmi delle scuole superiori incentrati sulle STEM che emergono in tutto il paese. Il Committee on STEM Education del National Science and Technology Council ha evidenziato la necessità di una maggiore educazione etica a tutti i livelli dell’istruzione STEM e la NAIRR Task Force ha l’opportunità di distribuire e unificare tali risorse.

Partenariati pubblico-privato e consorzi. Le principali organizzazioni pubblico-private e professionali stanno creando offerte best-in-class che formano i professionisti dell’IA sui metodi per costruire un’IA eticamente valida. La consultazione di questi gruppi esterni sarà essenziale mentre la task force del NAIRR va avanti con la sua strategia nazionale di IA.

Ad esempio, la piattaforma Shaping The Future of Technology Governance: Artificial Intelligence and Machine Learning del World Economic Forum (WEF) sta avendo un impatto significativo sui governi e sulle aziende di tutto il mondo attraverso consulenze, ricerche disponibili al pubblico, white paper, toolkit etici, e casi di studio. Questi prodotti possono aiutare ad accelerare i benefici e mitigare i rischi dell’intelligenza artificiale e dell’apprendimento automatico.

Allo stesso modo, il Responsible AI Institute (RAI) ha creato il primo programma di certificazione indipendente e accreditato per Responsible AI. In effetti, la RAI è già stata scelta dal Comando congiunto di intelligenza artificiale (JAIC) del Dipartimento della difesa degli Stati Uniti per incorporare barriere di protezione dell’intelligenza artificiale responsabili etiche e basate sui valori nelle pratiche di approvvigionamento.

Guardando al futuro, ci vorranno anni per incorporare etica e valori nelle discipline professionali legate all’intelligenza artificiale, ma è possibile. Mentre la task force NAIRR istituisce la sua tabella di marcia, il team deve fare riferimento alla nostra storia, fornire risorse per la formazione etica in contesti universitari, adattare tale formazione ai programmi STEM delle scuole superiori e lavorare con le organizzazioni professionali per infondere i migliori materiali della classe per migliorare le competenze di coloro che attualmente lavorano l’industria. Se vogliamo vincere la corsa all’innovazione dell’IA preservando i nostri principi democratici, dobbiamo iniziare da qui e dobbiamo iniziare ora.

di Will Griffin

Di ihal