Secondo uno studio, solo il 6% delle aziende ha adottato l’IA
In un nuovo sondaggio condotto su oltre 700 dirigenti C-suite e responsabili delle decisioni IT che esaminano l’adozione dell’IA nell’azienda, Juniper Networks ha rilevato che il 95% degli intervistati ritiene che la propria organizzazione trarrebbe vantaggio dall’incorporare l’IA nelle proprie operazioni quotidiane. Tuttavia, solo il 6% degli intervistati ha riferito di aver adottato soluzioni basate sull’intelligenza artificiale nella propria azienda.
I risultati concordano con altri sondaggi che mostrano che, nonostante l’entusiasmo per l’IA, le aziende faticano a implementare servizi basati sull’intelligenza artificiale nella produzione. L’utilizzo dell’IA da parte delle imprese è cresciuto del 270% negli ultimi anni, secondo quanto riportato di recente da Gartner , mentre Deloitte afferma che il 62% degli intervistati al suo studio aziendale dell’ottobre 2018 ha adottato una qualche forma di AI , rispetto al 53% del 2019. Ma l’adozione no hanno sempre successo, come ti dirà circa il 25% delle aziende che hanno visto fallire metà dei loro progetti di intelligenza artificiale.
Secondo il sondaggio Juniper, le principali sfide intorno all’IA rimangono l’acquisizione, l’elaborazione e la gestione dei dati. In altre tendenze dello stack tecnologico, il 39% degli intervistati ha affermato che era probabile che raccogliesse dati di telemetria per migliorare la “user experience” AI incorporata nei prodotti, mentre il 34% ha notato che le funzionalità degli strumenti AI sono le più critiche per consentire l’adozione dell’IA.
Juniper è il secondo rapporto recente che aggancia i problemi dei dati come motivo per cui le organizzazioni non riescono a distribuire con successo l’IA. I data scientist trascorrono la maggior parte del loro tempo a pulire e organizzare i dati , secondo un sondaggio del 2016 di CrowdFlower. E gli intervistati dell’ultimo rapporto trimestrale sullo stato della cultura dei dati di Alation hanno affermato che i pregiudizi intrinseci nei dati utilizzati nei loro sistemi di intelligenza artificiale producono risultati discriminatori che creano rischi di conformità per le loro organizzazioni.
Talent gap
La maggioranza (73%) degli intervistati di Juniper ha affermato che le proprie organizzazioni stavano lottando per espandere la propria forza lavoro per integrarsi con i sistemi di intelligenza artificiale. I dirigenti di livello C hanno riferito di ritenere che sia più una priorità assumere persone che sviluppare capacità di intelligenza artificiale all’interno della loro attività.
I lamenti per la carenza di talenti dell’IA sono diventati un ritornello familiare dell’industria privata.
2021 AI adozione di O’Reilly nel Enterprise carta ha rilevato che la mancanza di personale qualificato e la difficoltà assunzioni in cima alla lista di sfide in AI, con il 19% degli intervistati cita come una barriera “significativo”. Nel 2018, Element AI ha stimato che dei 22.000 ricercatori con dottorato di ricerca che lavorano a livello globale sullo sviluppo e la ricerca sull’IA, solo il 25% è “abbastanza esperto nella tecnologia da lavorare con i team per portarlo dalla ricerca all’applicazione”. Tencent afferma che ci sono circa 300.000 professionisti dell’IA in tutto il mondo ma “milioni” di ruoli disponibili. E un sondaggio Gartner del 2019 ha rilevato che il 54% dei chief information officer considera questo divario di competenze come la sfida più grande per la propria organizzazione.
AI responsabile
Sul tema della governance dell’IA, l’87% dei dirigenti ha dichiarato a Juniper di ritenere che le organizzazioni abbiano la responsabilità di implementare politiche che riducano al minimo gli impatti negativi dell’IA. Nonostante ciò, i dirigenti hanno classificato la definizione della governance, delle politiche e delle procedure dell’IA come una delle loro priorità più basse. E solo il 7% dei partecipanti al sondaggio ha affermato che le proprie organizzazioni hanno stabilito un leader a livello aziendale che sovrintende alla strategia e alla governance dell’IA.
Prove crescenti suggeriscono che le organizzazioni stanno implementando l’IA in modo meno responsabile di quanto ritengano internamente. Secondo un recente sondaggio del Boston Consulting Group su 1.000 imprese, meno della metà di coloro che hanno raggiunto l’IA su larga scala aveva implementazioni di IA pienamente mature e responsabili, secondo lo stesso rapporto.
L’adozione ritardata di un’IA responsabile smentisce il valore che queste pratiche possono apportare. Uno studio di Capgemini ha scoperto che clienti e dipendenti premieranno le organizzazioni che praticano l’IA etica con maggiore lealtà, più affari e persino la volontà di difenderle e, a loro volta, puniranno quelle che non lo fanno. Lo studio suggerisce che esiste sia un rischio reputazionale che un impatto diretto sui profitti per le aziende che non affrontano il problema in modo ponderato.