Isaac Asimov, uno scrittore di fantascienza molto noto per la sua serie di libri sui robot, ha introdotto le “Tre leggi della robotica” che giocano un ruolo fondamentale nelle discussioni sull’etica dell’intelligenza artificiale (IA) nel XX secolo.
La prima legge afferma che “Un robot non può nuocere a un essere umano o, attraverso l’inerzia, permettere che un essere umano venga danneggiato”. La seconda legge afferma: “Un robot deve obbedire agli ordini dati dagli esseri umani, a meno che tali ordini entrino in conflitto con la Prima Legge”. La terza legge afferma che “Un robot deve proteggere la propria esistenza fintanto che questa protezione non entri in conflitto con la Prima o la Seconda Legge”.
Secondo il programma di etica dell’Intelligenza Artificiale della durata di 5 giorni dell’Università di Oxford, queste tre leggi sono uno dei principali argomenti del corso. È interessante notare che il programma non richiede una conoscenza dettagliata di IA/apprendimento automatico o di come funzionino questi sistemi prima di discutere dell’etica che li circonda. Sembra che chiunque abbia una qualsiasi qualifica possa seguire questo corso e definirsi “esperto di etica dell’IA”.
Ciò solleva la domanda: se una persona non ha mai costruito un modello di apprendimento automatico nella propria vita, come può qualificarsi per stabilire dei limiti attorno a questi sistemi altamente capaci e, allo stesso tempo, spaventosi?
Guardando dal punto di vista dei “doomer” dell’IA, molti di loro sono influenzati dai numerosi film che negli anni hanno presentato il tema delle “macchine che conquistano il mondo”. È evidente che temono che i sistemi sviluppati dalle grandi aziende tecnologiche, che vengono sempre più pubblicizzati come sempre più prossimi alla sensibilità umana, possano alla fine prevalere sull’umanità.
Tuttavia, anche se una persona segue un corso sull’etica dell’IA senza avere una comprensione di come le macchine imparano, cosa la qualifica a stabilire leggi sull’IA?
Di recente, lo storico e filosofo israeliano Yuval Noah Harari ha espresso scetticismo sulle possibilità di sviluppare modelli di intelligenza artificiale come ChatGPT. “In futuro, potremmo assistere alla nascita dei primi culti e religioni la cui sacra scrittura è stata scritta da un’intelligenza non umana”, ha affermato Harari. Quest’idea sembra alquanto improbabile.
Anche Warren Buffet ha espresso preoccupazione per i pericoli dell’IA, paragonandola alla creazione della bomba atomica. Anche il Papa ha richiesto un utilizzo etico dell’IA.
È interessante notare che Geoffrey Hinton, dopo aver lasciato Google, è preoccupato anche per le implicazioni etiche dell’IA.
Nel 2018, Hinton ha espresso scetticismo sulla necessità di un’intelligenza artificiale spiegabile e ha avuto disaccordi con Timnit Gebru, ex esperta di etica dell’IA presso Google, riguardo ai rischi esistenziali dei modelli di apprendimento automatico. Tuttavia, Hinton ha citato le parole di Oppenheimer quando si è espresso su questo argomento. In passato, Sam Altman ha anche paragonato il potenziale della tecnologia che sta cercando di sviluppare alla bomba atomica.
D’altra parte, quando esperti di intelligenza artificiale come Hinton o Yann LeCun, considerati pionieri nel campo dell’IA fin dai suoi esordi, sollevano preoccupazioni sulle capacità di questi modelli di intelligenza artificiale, allora la conversazione diventa interessante e le domande sull’etica emergono.
La ragione principale per cui Hinton ha lasciato Google è stata quella di dedicarsi alle discussioni sulle implicazioni etiche di questi modelli di intelligenza artificiale. Con il senno di poi, si rammarica di aver costruito questi modelli e afferma che avrebbe dovuto iniziare a sollevare queste preoccupazioni prima.
Nella scorsa settimana, dopo che i capi di Microsoft, Google e OpenAI si sono incontrati con l’amministrazione Biden alla Casa Bianca, c’è stata una crescente attenzione sulle implicazioni etiche di questi prodotti. Anche se non si conoscono i dettagli delle discussioni, potrebbe trattarsi dell’assunzione di una responsabilità da parte dei leader per rendere etica l’IA.
D’altro canto, con l’avvento dei chatbot di intelligenza artificiale, le aziende che sviluppano questi “generatori di testo” hanno iniziato a licenziare i loro team di etica e responsabilità nell’IA. Sembra che le grandi aziende tecnologiche abbiano scoperto che non hanno bisogno di un team etico per definire dei confini intorno ai loro prodotti. Potrebbe essere che una persona interessata all’etica all’interno del team possa ostacolare o mettere in discussione i progressi e la crescita che l’azienda sta ottenendo con il suo prodotto.
Inoltre, quando le grandi aziende tecnologiche cercano di superarsi nella corsa all’IA, potrebbero trascurare l’aspetto etico di questi modelli. C’è la possibilità che ora i giganti tecnologici stiano iniziando ad allinearsi con i governi riguardo alle preoccupazioni in merito.
Tuttavia, sarebbe sbagliato affermare che tutti gli esperti di etica dell’IA non comprendono i sistemi di intelligenza artificiale e come funzionano. Esperti di etica come Timnit Gebru o Alex Hanna, che hanno fatto parte delle grandi aziende tecnologiche che hanno sviluppato questi sistemi di intelligenza artificiale, stanno lavorando per affrontare i problemi di allineamento dell’IA presso il Distributed AI Research Institute (DAIR).
DAIR è uno spazio di ricerca sull’IA indipendente e radicato nella comunità, e si occupa di affrontare i problemi di pregiudizio all’interno di questi sistemi, nonché di esaminare l’intero quadro riguardante come questi modelli possano influenzare la privacy degli utenti e dei cittadini nel mondo. Forse Gebru e Hanna si sono separati da Google dopo aver esaminato alcune serie preoccupazioni etiche.
Inoltre, sta emergendo una nuova generazione di esperti di etica nel campo dell’IA che si occupa dei diritti dell’IA. Questo si allinea con la terza legge della robotica di Asimov, in cui i robot possono governarsi autonomamente. Jacy Reese Anthis, co-fondatore del Sentience Institute, ha affermato in un’intervista con AIM che abbiamo bisogno di un movimento per i diritti dell’IA, perché “anche se attualmente non hanno una vita interiore, potrebbero averla in futuro”. È evidente che la conversazione si sta spostando nella giusta direzione.
Ciò dimostra che forse l’unico elemento mancante nel dibattito attuale degli esperti di etica dell’IA è la mancanza di una conoscenza approfondita dell’IA stessa e una maggiore comprensione sociologica del mondo. Sebbene quest’ultima sia estremamente importante, la mancanza della prima fa sì che le loro posizioni vengano spesso trascurate o respinte. Le grandi aziende tecnologiche hanno bisogno di più esperti di etica con una migliore comprensione di come funzionano i sistemi di intelligenza artificiale. Solo così potremo rendere l’IA “etica”. Fino ad allora, le grandi aziende tecnologiche continuano ad agire.