Il boom dell’intelligenza artificiale (AI) è iniziato sul serio nel 2012 quando Alex Krizhevsky, in collaborazione con Ilya Sutskever e Geoffrey Hinton (che era il consulente di dottorato di Krizhevsky), ha creato AlexNet, che ha poi vinto la ImageNet Large Scale Visual Recognition Challenge . L’obiettivo di quel concorso annuale, iniziato nel 1996, era di classificare le 1,3 milioni di fotografie ad alta risoluzione nel set di formazione ImageNet in 1.000 classi diverse. In altre parole, identificare correttamente un cane e un gatto.
AlexNet consisteva in una rete neurale di deep learning ed è stato il primo concorrente a superare il 75% di precisione nella competizione. Forse ancora più impressionante, ha dimezzato il tasso di errore esistente sul riconoscimento visivo di ImageNet al 15,3%. Ha anche stabilito, probabilmente per la prima volta, che il deep learning aveva capacità sostanziali nel mondo reale. Tra le altre applicazioni, questo ha aperto la strada ai sistemi di riconoscimento visivo utilizzati in tutti i settori, dall’agricoltura alla produzione.
Questa svolta nel deep learning ha innescato un uso accelerato dell’IA. Ma al di là del genio indiscusso di questi e di altri primi professionisti del deep learning, è stata la confluenza di diverse importanti tendenze tecnologiche a dare impulso all’IA. Internet, telefoni cellulari e social media hanno portato a un’esplosione di dati, che è il carburante per l’IA. L’informatica ha continuato il suo progresso simile a quello della legge di Moore raddoppiando le prestazioni circa ogni 18 mesi, consentendo l’elaborazione di grandi quantità di dati. Il cloud ha fornito un accesso immediato ai dati da qualsiasi luogo e ha ridotto i costi dell’elaborazione su larga scala. I progressi del software, in gran parte open source, hanno portato a un fiorire di librerie di codici AI disponibili a chiunque.
La corsa all’oro dell’IA
Tutto ciò ha portato a un aumento esponenziale dell’adozione dell’IA e a una mentalità da corsa all’oro. La ricerca della società di consulenza gestionale PwC mostra che il PIL globale potrebbe aumentare fino al 14% nel 2030 come risultato dell’IA, l’equivalente di altri 15,7 trilioni di dollari, rendendola la più grande opportunità commerciale nell’economia odierna. Secondo Statista, il finanziamento globale delle startup di intelligenza artificiale è cresciuto in modo esponenziale da $ 670 milioni nel 2011 a $ 36 miliardi nel 2020. Tortoise Intelligence ha riferito che questo è più che raddoppiato a $ 77 miliardi nel 2021. Solo nell’ultimo anno, ci sono stati oltre 50 milioni online menzioni di IA nelle notizie e nei social media.
MetaBeat riunirà leader di pensiero per fornire indicazioni su come la tecnologia metaverse trasformerà il modo in cui tutti i settori comunicano e fanno affari il 4 ottobre a San Francisco, in California.
Registrati qui
Tutto ciò è indicativo dell’ondata di sviluppo e implementazione dell’IA. Già presente in molte applicazioni consumer, l’IA sta ora ottenendo un’ampia adozione nelle aziende. Secondo Gartner, entro il 2024 si prevede che il 75% delle aziende passerà dal pilotaggio all’operatività dell’IA.
Non è solo il deep learning a guidarlo. Il deep learning è un sottoinsieme del machine learning (ML), alcuni dei quali esistono da diversi decenni. È disponibile un’ampia varietà di algoritmi ML in uso, per qualsiasi cosa, dai filtri antispam e-mail alla manutenzione predittiva per apparecchiature industriali e militari. Il ML ha beneficiato delle stesse tendenze tecnologiche che stanno guidando lo sviluppo e l’adozione dell’IA.
Con la corsa all’adozione sono arrivati alcuni passi falsi notevoli. I sistemi di intelligenza artificiale sono essenzialmente tecnologie di riconoscimento dei modelli che perlustrano i dati esistenti, la maggior parte dei quali è stata raccolta nel corso di molti anni. Se i set di dati su cui agisce l’IA contengono dati distorti, l’output degli algoritmi può riflettere tale distorsione. Di conseguenza, ci sono stati chatbot che sono andati terribilmente storto, assumendo sistemi che rafforzano gli stereotipi di genere, sistemi di riconoscimento facciale imprecisi e forse distorti che portano ad arresti illeciti e pregiudizi storici che portano al rifiuto dei prestiti.
Una chiara necessità di un’IA affidabile e responsabile
Questi e altri problemi hanno suscitato preoccupazioni legittime e hanno portato al campo dell’etica dell’IA. C’è una chiara necessità di un’IA responsabile , che è essenzialmente una ricerca per non fare del male con gli algoritmi di intelligenza artificiale. Per fare ciò è necessario eliminare le distorsioni dai set di dati o attenuarle in altro modo. È anche possibile che il pregiudizio sia introdotto inconsciamente negli algoritmi stessi da coloro che li sviluppano e debba essere identificato e contrastato. E richiede che il funzionamento dei sistemi di intelligenza artificiale sia spiegabile in modo che vi sia trasparenza nel modo in cui vengono raggiunte le informazioni e le decisioni.
L’obiettivo di questi sforzi è garantire che i sistemi di intelligenza artificiale non solo non causino danni specifici, ma siano affidabili. Come osserva Forrester Research in un recente blog , questo è fondamentale per il business, in quanto non può permettersi di ignorare il debito etico accumulato dalla tecnologia di intelligenza artificiale.
L’intelligenza artificiale responsabile non è facile, ma è di fondamentale importanza per il futuro del settore dell’intelligenza artificiale. Ci sono nuove applicazioni che utilizzano l’IA sempre online in cui questo potrebbe essere un problema, come determinare quali candidati dell’esercito americano meritano una promozione . Il riconoscimento dell’esistenza del problema ha concentrato negli ultimi anni notevoli sforzi sullo sviluppo di misure correttive.
La nascita di un nuovo campo
Ci sono buone notizie su questo fronte, poiché sono state sviluppate tecniche e strumenti per mitigare i pregiudizi degli algoritmi e altri problemi in diversi punti dello sviluppo e dell’implementazione dell’IA, sia nel progetto originale, in fase di implementazione o dopo che è in produzione. Queste capacità stanno portando al campo emergente dell’audit algoritmico e dell’assicurazione che creerà fiducia nei sistemi di intelligenza artificiale.
Oltre al pregiudizio, ci sono altri problemi nella creazione di un’IA affidabile, inclusa la capacità di spiegare come un algoritmo raggiunge i suoi consigli e se i risultati sono replicabili e accurati , garantire la privacy e la protezione dei dati e proteggerli dagli attacchi del contraddittorio. Il campo dell’auditing e dell’assurance affronterà tutti questi problemi, come si evince dalla ricerca condotta da Infosys e dall’University College of London. Lo scopo è fornire standard, codici pratici e regolamenti per garantire agli utenti la sicurezza e la legalità dei sistemi algoritmici.
Ci sono quattro attività principali coinvolte.
Sviluppo: un audit dovrà tenere conto del processo di sviluppo e documentazione di un sistema algoritmico.
Valutazione: un audit dovrà valutare i comportamenti e le capacità di un sistema algoritmico.
Mitigazione: un audit dovrà raccomandare servizi e processi di miglioramento per affrontare le caratteristiche ad alto rischio dei sistemi algoritmici.
Garanzia: un audit sarà volto a fornire una dichiarazione formale che un sistema algoritmico è conforme a un insieme definito di standard, codici di condotta o regolamenti.
Idealmente, un’azienda dovrebbe includere questi concetti dall’inizio di un progetto di intelligenza artificiale per proteggere se stessa e i suoi clienti. Se ciò fosse ampiamente implementato, il risultato produrrebbe un ecosistema di IA affidabile e IA responsabile. In tal modo, i sistemi algoritmici verrebbero adeguatamente valutati, sarebbero intraprese tutte le misure plausibili per ridurre o eliminare i rischi e gli utenti, i fornitori e le terze parti sarebbero assicurati della sicurezza dei sistemi.
Solo un decennio fa, l’IA era praticata principalmente da un piccolo gruppo di accademici. Da allora lo sviluppo e l’adozione di queste tecnologie si è espansa notevolmente. Nonostante tutti i notevoli progressi, ci sono state delle carenze. Molti di questi possono essere affrontati e risolti con auditing e assurance algoritmici. Con la corsa sfrenata dell’IA negli ultimi 10 anni, questo non è un risultato da poco.
Bali (Balakrishna) DR è vicepresidente senior, responsabile dell’offerta di servizi — ECS, AI e automazione presso Infosys .
da Venturebeat.com