Home / Società / Come il coronavirs COVID-19 ha messo in evidenza i limiti dell’intelligenza artificiale

Come il coronavirs COVID-19 ha messo in evidenza i limiti dell’intelligenza artificiale

COME COVID PANDEMIC HA MESSO IN EVIDENZA I LIMITI DELL’IA

Come COVID Pandemic ha messo in evidenza i limiti dell’IA
Mentre ci stiamo evolvendo verso questo periodo senza precedenti di COVID-19, l’intelligenza artificiale si è rivelata una tecnologia che ha abbracciato quasi tutti gli aspetti della vita umana , che si tratti di assistenza sanitaria , banche , acquisti e gestione di imprese in questa crisi. L’impatto di questa pandemia ha messo in luce il significato di questa tecnologia, e quindi le aziende e gli enti governativi stanno accelerando con soluzioni basate sull’intelligenza artificiale. In effetti, secondo un rapporto di PwC , è stato notato come questa tecnologia possa cambiare il gioco per questa era e potrebbe contribuire fino a $ 15,7 trilioni all’economia globale entro il 2030.

Molto di questo potrebbe essere attribuito alla credenza popolare che l’intelligenza artificiale abbia il potenziale per risolvere alcuni dei complessi problemi aziendali del mondo reale . Tuttavia, nonostante questi incredibili risultati che l’intelligenza artificiale ha sfruttato sulle imprese, la pandemia ha evidenziato alcuni problemi esistenti relativi a questa tecnologia, tra cui spiegabilità, accuratezza e rischi legati alla privacy.

Ad esempio, Joe Redmon, creatore del famoso algoritmo di visione artificiale YOLO , ha recentemente twittato su di lui lasciando la sua ricerca sulla visione del computer a causa della preoccupazione dell’uso non etico dell’IA. In altre notizie, i dipendenti Walmart hanno espresso la loro preoccupazione per avere un’intelligenza artificiale difettosa, che non è in grado di contrassegnare gli errori da parte dei loro clienti.

È un dato di fatto, sottolineando le preoccupazioni, il governo indiano ha recentemente annunciato la sua partecipazione a Global Partnership su AI , aka GPAI o Gee-Pay, insieme ad altre nazioni come Stati Uniti, Regno Unito, UE, Australia, Canada, Nuova Zelanda, e la Repubblica di Corea. Questa partnership unica nel suo genere si concentra sulla creazione di linee guida sull’uso responsabile dell’IA, tra cui la diversità, l’innovazione e la crescita economica. “Unendosi alla GPAI come membro fondatore, l’India parteciperà attivamente allo sviluppo globale dell’intelligenza artificiale, sfruttando la sua esperienza sull’uso delle tecnologie digitali per una crescita inclusiva”, ha osservato la dichiarazione del governo indiano.


Nonostante queste iniziative, non ci sono state misure rigorose per garantire l’accuratezza delle informazioni, la sicurezza dei dati e modelli di AI addestrati in modo efficace in grado di supportare le aziende con i loro problemi. L’uso inefficace dell’intelligenza artificiale non solo può ostacolare le aziende, ma può anche mettere a rischio migliaia di vite. Pertanto, è fondamentale per noi conoscere i limiti chiave dell’intelligenza artificiale nel mezzo di questa crisi, in modo che i governi e le imprese possano creare un quadro solido e linee guida essenziali per un uso responsabile di questa tecnologia.

Evidenziando i vincoli dell’IA che possono sollevare bandiere rosse per gli adottanti
Questa pandemia di COVID-19 ha creato una forte domanda per le imprese, i fornitori di servizi sanitari e le entità governative di fare affidamento sull’intelligenza artificiale per migliorare le loro operazioni. Tuttavia, una delle principali preoccupazioni che pone è il pregiudizio preesistente che sorge nei modelli di IA mentre si prendono decisioni contro una specifica sezione di persone. Molto di questo potrebbe essere attribuito all’essere umano coinvolto nella formazione di quei dati, che annulla il giudizio sull’intelligenza artificiale.

Tali problemi sorgono quando il sistema di intelligenza artificiale che viene utilizzato per riconoscere le persone viene formato su un particolare tipo di set di dati che non è diverso per razza, casta, genere e persone di comunità diverse, e quindi si riflette nelle decisioni prese dal riconoscimento facciale sistema.

In effetti, secondo le notizie, per quanto riguarda il recente caso della morte di George Floyd, è stato notato come, nonostante il miglioramento, la tecnologia di riconoscimento facciale possa ancora essere influenzata dalle persone di colore, ed è per questo che la maggior parte di questi giganti della tecnologia come Amazon , Google, Microsoft e IBM hanno annunciato le loro preoccupazioni e hanno preso una lodevole decisione di non lavorare su queste soluzioni di riconoscimento facciale per l’autorità di polizia. Questi pregiudizi – dati non rappresentativi, pregiudizi strutturali intrinseci – possono anche avere un impatto negativo su altri settori come la creazione di contenuti , la presa di decisioni sull’occupazione e la fornitura di servizi sanitari.

Caso in questione: l’anno scorso, il rilevatore di incitamento all’odio di Google del gigante della ricerca è stato esaminato per avere pregiudizi contro le persone di colore. Gli esperti lo hanno riconosciuto per l’addestramento inefficiente dei loro modelli e algoritmi distorti. Come IBM, una volta disse nella loro dichiarazione che l’intelligenza artificiale è utile solo come i dati che vengono immessi nella macchina.

In un atto per mitigare questo problema, Facebook CTO, Mike Schroepfer ha anche recentemente parlato di come le diverse assunzioni nell’organizzazione possano rivelarsi utili per evitare distorsioni nei set di dati di formazione e nei modelli di intelligenza artificiale. “Penso anche che la vera soluzione a questi problemi per cose come assicurarti di avere un set di dati diversificato sia in realtà il processo, la comprensione della formalizzazione di questo in tutta l’azienda, quindi ci sono metodi statistici per determinare se questo set di dati è rappresentato nel modi a cui tieni ”, ha affermato Schroepfer ai media.

Ulteriori domande sorgono su come misurare questa diversità e su come questi modelli dovrebbero essere formati. Per questo i ricercatori hanno creato taglie di pregiudizio , insieme alle quali, Pegasystems, una società di sviluppo software ha lanciato uno strumento – Ethical Bias Check , che aiuterà le aziende e gli sviluppatori a identificare e omettere i pregiudizi nascosti dei loro modelli di intelligenza artificiale. Simile a questo è che i ricercatori dell’IIT Madras in collaborazione con i ricercatori britannici della Queen’s University di Belfast hanno anche creato un nuovo algoritmo che renderebbe l’IA più equa durante l’elaborazione dei dati.

Sebbene sia fondamentale eliminare questi pregiudizi, è molto più difficile del previsto. A sostegno di ciò, Smitha Ganesh , che attualmente lavora come responsabile dell’innovazione dei dati, India, presso Ericsson, ha ampiamente menzionato nel suo intervento , come può essere difficile correggere i pregiudizi dell’IA, ma ha un valore eccezionalmente significativo per prendere decisioni informate. Pertanto, per evitare questi pregiudizi, gli sviluppatori devono pensare all’intenzione e al risultato per i quali viene creato il prodotto e quindi curare i dati olistici rilevanti per formare tali modelli.

Un’altra preoccupazione significativa che l’IA comporta è la mancanza di dati affidabili . Dato che i dati sono la chiave per eseguire un modello di intelligenza artificiale, è estremamente importante comprendere la realtà dei dati e come apporteranno valore per prendere decisioni informate. E per questo, le aziende devono assicurarsi che i dati forniti al modello non siano solo solidi, ma anche completi di punti dati rilevanti. Sebbene molte aziende, insieme ad enti governativi, stiano lavorando per raccogliere dati rilevanti, esiste ancora un divario considerevole per colmare quello tra i dati effettivi e quelli che vengono curati dai professionisti.

Inoltre, l’ 80% dei dati mondiali non è strutturato , il che potrebbe essere irrilevante per la formazione del modello e pertanto è necessario garantire quali dati sono significativi e possono essere utilizzati per analizzare i modelli. Ad esempio, il modello di intelligenza artificiale di IBM – Watson aveva subito questo problema quando ha memorizzato l’intero dizionario urbano online e quindi non è stato in grado di distinguere tra i gerghi e le parole educate. Tale istanza mostra che i dati devono essere gestiti con cautela e che solo i dati utili dovrebbero essere utilizzati per addestrare i modelli per un risultato migliore. Nella situazione attuale, gli esperti hanno anche sollecitato le aziende a impedire l’uso dei dati pre-COVID per progettare la propria attività poiché questa pandemia può trasformare molti aspetti della vita e l’uso di tali dati imperfetti potrebbe produrre risultati inefficaci.

I problemi con i dati generano anche problemi di precisione nell’intelligenza artificiale, che è uno dei motivi principali per la distribuzione dell’intelligenza artificiale . La precisione è fondamentale per le aziende, in particolare quelle che stanno risolvendo alcuni problemi critici del mondo reale. Con dati errati, il modello AI produrrà risultati imprecisi, che a loro volta forniranno servizi ingiusti ai clienti. Ad esempio, l’IA si è rivelata estremamente utile per accelerare il trattamento dei pazienti COVID-19, tuttavia, se i modelli fossero stati addestrati su dati imperfetti o distorti, si creerebbe una disuguaglianza nel modello che può ostacolare il trattamento dei pazienti .

In un altro caso, i chatbot hanno anche dimostrato di avere molto potenziale in questa crisi, in cui le persone si affidano alle informazioni sulla salute per gestire la propria vita e per gestire i propri clienti. Diverse agenzie governative, così come le imprese, hanno implementato chatbot sulle loro piattaforme, tuttavia, per fornire informazioni accurate analizzando enormi risorse di dati, è necessario assicurarsi che vengano prese le misure adeguate.

In effetti, il World Economic Forum nel loro post sul blog ha dichiarato come l’IA conversazionale si sta dimostrando valida in questa crisi, ma è fondamentale affrontare le sue sfide come risposte incoerenti e inesattezze. Gli errori nei risultati basati sull’intelligenza artificiale nei chatbot possono portare alla diffusione di informazioni errate, che possono ostacolare l’interesse del pubblico. Problemi simili possono verificarsi se dati errati vengono alimentati a un sistema sanitario basato sull’intelligenza artificiale che viene utilizzato per diagnosticare i raggi X, trattare i pazienti o identificare la diffusione del virus in questa crisi. Pertanto, vi è un requisito fondamentale per i governi e le aziende per creare un quadro politico in grado di monitorare il modello di intelligenza artificiale prima del suo utilizzo nel mondo reale.

In un’intervista, Zoya Brar – Fondatore e CEO – CORE Diagnostics ha dichiarato ai media che è ancora discutibile su quanta autonomia possa essere data all’intelligenza artificiale . Ha affermato: “Affidabilità e sicurezza sono questioni fondamentali che l’IA può porre. Nei casi in cui l’IA viene impiegata per controllare le apparecchiature, fornire cure e se lo stesso accade, il mancato rilevamento può causare gravi conseguenze. “

Insieme a questo, l’IA sta anche portando problemi di privacy poiché la maggior parte delle aziende utilizza i dati dei clienti per far avanzare i propri sistemi di intelligenza artificiale. Ciò ha causato disordini tra i consumatori in quanto le persone stanno diventando più sensibili alla condivisione dei propri dati personali, inclusi ubicazione, interessi e storie bancarie, al fine di evitare potenziali attacchi informatici e perdite di dati a società terze. Tale paura è giustificabile tra i consumatori, come nelle recenti notizie, Clearview AI, una startup di riconoscimento facciale è stata accusata di utilizzare i dati delle persone senza il loro consenso .

A sostegno di ciò, l’ app Arogya Setu , che è stata lanciata dal governo indiano per aiutare i cittadini con le necessarie informazioni COVID-19, ha anche rivisto la sua politica sulla privacy per garantire che i dati degli utenti non vengano condivisi con app di terze parti. Inoltre, in seguito alla recente decisione dei giganti della tecnologia di bloccare i loro strumenti FRT per le autorità di polizia, i democratici del Congresso hanno anche rilasciato una riforma che menziona l’uso limitato di questa tecnologia per le attività di polizia.

Riassumendo
L’omissione dell’intervento umano, insieme a un’immensa velocità e facilità d’uso, ha portato l’IA alla ribalta in questa crisi; tuttavia, ciò non dovrebbe camuffare la limitazione e le sfide che i sistemi di intelligenza artificiale comportano. Problemi come la distorsione implicita, la mancanza di dati, i risultati imprecisi, nonché i problemi di privacy mostrano che i sistemi di intelligenza artificiale non sono impeccabili. Tuttavia, ha davvero un grande potenziale per trasformare la vita umana, e quindi i limiti e le sfide dell’IA devono essere affrontati e il quadro necessario dovrebbe essere creato per il suo uso etico.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi