Home / Intelligenza artificiale pericolo / L’etica nell’intelligenza artificiale 

L’etica nell’intelligenza artificiale 

Proteggere l’essere umano: l’etica nell’intelligenza artificiale 

Quando pensiamo al futuro del nostro mondo e a come appare esattamente, è facile concentrarsi sugli oggetti luccicanti e sulla tecnologia che ci semplificano la vita: macchine volanti, stampanti 3D, valute digitali e tutto automatizzato. Nella scena iniziale del film d’animazione WALL-E – che si svolge nell’anno 2805 – una canzone di “Hello, Dolly!” gioca allegramente in sottofondo, in netto contrasto con lo scorcio che abbiamo del nostro futuro pianeta Terra: una landa desolata abbandonata con cumuli di spazzatura dietro ogni angolo. A questo punto gli umani avevano tutti evacuato la Terra e vivevano in un’astronave, dove la tecnologia e l’automazione futuristiche li lasciavano sovrappeso, pigri e completamente ignari di ciò che li circonda. Le macchine fanno tutto per loro, dalle carrozzine che li portano in giro, ai robot che preparano il loro cibo. 


Anche se sì, questo è un film d’animazione e fittizio, molti ipotizzano che potrebbe essere una rappresentazione in qualche modo accurata del nostro futuro, e tendo ad essere d’accordo. I progressi nell’intelligenza artificiale e nella tecnologia hanno lo scopo di semplificarci la vita, ma rappresentano una minaccia per la società quando non sono perfetti. Oggi, le aziende e gli individui affrontano molte sfide con l’IA: dai giganti della tecnologia e dei social media che controllano la voce sulle loro piattaforme ai servizi e alle tecnologie che accelerano i processi ma applicano pregiudizi non intenzionali. Quando iniziamo a fare affidamento sugli algoritmi per prendere decisioni per noi, è allora che le cose iniziano a prendere una brutta piega e ci avviciniamo di un centimetro a vivere in un posto non troppo lontano dall’ambiente che vediamo in WALL-E. L’intelligenza artificiale non può essere sufficiente per creare un mondo migliore per noi stessi: deve essere perfetta. Ecco perché: 

Un’eccessiva dipendenza dall’IA amplifica i pregiudizi che dovremmo eliminare.  

Ogni anno che passa, l’uso globale dell’IA continua a crescere. Mentre i progressi nell’intelligenza artificiale dovrebbero semplificarci la vita, stanno anche evidenziando alcuni dei nostri pregiudizi impliciti che molti stanno lavorando duramente per eliminare. Uno studio del MIT hanno scoperto che i sistemi di classificazione di genere venduti da diverse importanti aziende tecnologiche avevano un tasso di errore fino a 34,4 punti percentuali più alto per le femmine dalla pelle più scura rispetto ai maschi dalla pelle più chiara. Probabilmente a causa di set di dati distorti, esempi come questo presentano una miriade di problemi nel processo decisionale, in particolare nel reclutamento di posti di lavoro e nei sistemi di giustizia penale. Gli algoritmi che escludono le candidate per lavori tradizionalmente dominati dagli uomini, o gli algoritmi che determinano il “punteggio di rischio” di un criminale pesantemente ponderato nell’aspetto rispetto alle azioni, stanno solo amplificando i pregiudizi che dovremmo rimuovere. 

 


Un approccio black box all’IA mette a rischio i nostri diritti di primo emendamento.  

Un sistema a scatola nera in cui gli utenti mancano di trasparenza nello sviluppo dell’algoritmo e nella formazione dei modelli insieme alla conoscenza del motivo per cui i modelli prendono le decisioni che fanno è molto problematico nell’etica dell’IA. Come esseri umani tutti abbiamo punti ciechi, quindi la creazione di modelli e algoritmi dovrebbe coinvolgere un contesto umano elevato e non solo macchine più potenti. Se affidiamo tutte le nostre decisioni a un algoritmo e non sappiamo più cosa sta succedendo dietro le quinte, l’uso dell’intelligenza artificiale rischia di diventare irresponsabile nella migliore delle ipotesi e non etico nella peggiore, mettendo a rischio anche i nostri diritti di primo emendamento. Uno studio dell’Università di Washington ha scoperto che i principali modelli di intelligenza artificiale per identificare l’incitamento all’odio avevano una probabilità una volta e mezzo maggiore di contrassegnare i tweet come offensivi o odiosi quando erano scritti da afroamericani. I pregiudizi negli strumenti di incitamento all’odio hanno il potenziale per censurare ingiustamente i discorsi sui social media, vietando solo determinati gruppi di persone o individui. Implementando un approccio “human-in-the-loop”, gli esseri umani hanno l’ultima parola nel processo decisionale e si possono evitare i pregiudizi della scatola nera.  

L’uso etico dell’IA è difficile da regolamentare. 

Quando iniziamo a fare affidamento sull’intelligenza artificiale per prendere decisioni per noi, spesso fa più male che bene. L’anno scorso, WIRED ha pubblicato un articolo intitolato ” L’intelligenza artificiale rende la medicina ancora peggiore”, che evidenzia come le diagnosi basate sull’intelligenza artificiale non siano sempre accurate e, quando lo sono, non è sempre necessario trattarle. Immagina di essere sottoposto a screening per il cancro senza avere alcun sintomo e che ti venga detto che in effetti hai il cancro, ma in seguito scopri che era solo qualcosa che assomiglia al cancro e che l’algoritmo era sbagliato. Mentre i progressi nell’IA dovrebbero cambiare in meglio l’assistenza sanitaria, l’IA in un settore come questo deve assolutamente essere regolata in modo che sia l’essere umano a prendere la decisione finale o la diagnosi, piuttosto che una macchina. Se rimuoviamo l’essere umano dall’equazione e non regoliamo l’IA etica, rischiamo di commettere errori dannosi nei processi cruciali e quotidiani.  

 

 
L’intelligenza artificiale deve essere più che buona. Per proteggere l’essere umano, deve essere perfetto. Se iniziamo a fare affidamento sulle macchine per prendere decisioni per noi quando la tecnologia è “abbastanza buona”, amplifichiamo i pregiudizi, rischiamo i nostri diritti di primo emendamento e non regoliamo alcune delle decisioni più cruciali. Un’eccessiva dipendenza da un’intelligenza artificiale non perfetta può semplificarci la vita, ma anche renderci più pigri e potenzialmente accettare decisioni sbagliate. A che punto iniziamo ad affidarci alla macchina per tutto? E se lo faremo, finiremo tutti per evacuare un pianeta Terra inabitabile, facendo affidamento su sedie a rotelle per portarci in giro e macchine per preparare il nostro cibo per il resto della nostra vita, proprio come in WALL-E? Con l’avanzare dell’intelligenza artificiale, dobbiamo proteggere l’essere umano a tutti i costi. Perfetto è nemico del bene, ma per l’IA deve essere lo standard.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi