Gli MLO incentrati sull’uomo possono aiutare l’IA a essere all’altezza del clamore?
Il concetto di “IA incentrata sull’uomo” ha permeato lo zeitgeist dell’intelligenza artificiale negli ultimi due anni. Ciò è dovuto, in parte, a organizzazioni come lo Stanford’s Institute for Human-Centered AI (HAI), lanciato nel 2019.
Ma secondo il Dr. Vishal Sikka, fondatore e CEO di Palo Alto, Vianai Systems con sede in California (che in precedenza era anche CEO di Infosys e funge da membro del consiglio consultivo di HAI), l’IA incentrata sull’uomo è più di una parola d’ordine pubblicizzata o quadro filosofico. Mentre si concentra su come l’IA può amplificare e migliorare le prestazioni umane, si tratta in realtà di aiutare le aziende a costruire e gestire un’IA migliore . Innovazione con la posizione: in che modo Foursquare migliora i risultati aziendali dei clienti con la tecnologia geospaziale
“Le aziende devono capire lo stato del loro panorama di intelligenza artificiale: quanti modelli hanno, cosa fanno con loro, cosa dovrebbero fare i modelli, stanno facendo quello che dovrebbero fare”, ha affermato.
A tal fine, la piattaforma MLOps Vian H+AI, lanciata di recente dall’azienda, combina diversi strumenti open source , tecniche e ottimizzazioni proprietarie e design thinking, con l’obiettivo di fornire una base per portare i sistemi di IA incentrati sull’uomo nell’impresa su larga scala. Un’esperienza utente unificata consente agli ingegneri MLOps di rendere operativi rapidamente i modelli, indipendentemente dagli strumenti utilizzati dai data scientist per creare tali modelli; così come plug and play e prendere decisioni sui componenti senza modificare l’API.
Supportare il processo decisionale umano con l’IA
I nuovi strumenti hanno lo scopo di aiutare le aziende a sfruttare appieno le promesse e il potenziale dell’IA per guidare le loro attività, ha spiegato Sikka, garantendo al contempo che le modalità di intelligenza artificiale e ML siano responsabili, spiegabili ed etiche e, allo stesso tempo, supportano il processo decisionale umano invece di sostituirlo.
“Ciò richiede che i nostri strumenti facciano un passo indietro verso una prospettiva meta-teorica su un modello, per cercare di comprenderne i limiti”, ha affermato Sikka. “Quali sono le aree in cui produce falsi positivi e falsi negativi? Sta succedendo più di quanto accadeva quando abbiamo addestrato il modello o quando abbiamo costruito il modello? Possiamo guardarci dentro e vedere che tipo di incertezza esistono: l’incertezza nei dati o nel modello?”
Il risultato ha lo scopo di soddisfare le esigenze di IA uniche delle aziende, ma da una prospettiva umana. Ad esempio, Sikka indica un sistema che Vianai ha costruito utilizzando la piattaforma MLOps per una delle banche più grandi del mondo, che aiuta i periti immobiliari a valutare meglio le loro proprietà.
“Tradizionalmente, esaminano comparabili e apportano modifiche in base al fatto che, ad esempio, la proprietà abbia una piscina, o la criminalità nell’area fosse peggiore, o il rumore dell’autostrada fosse migliore”, ha detto. Vianai è stata in grado di aiutare l’azienda a comprendere oltre 20.000 comparabili in più e cento volte più aggiustamenti.
“Alla fine, sono loro che prendono la decisione sul valore della proprietà, piuttosto che farlo automaticamente”, ha detto. “Abbiamo fornito loro gli strumenti per consentire ai valutatori di analizzare le informazioni molto più velocemente, su quantità di dati molto maggiori, di quanto non fossero mai stati in grado di fare”.
Sikka, che è anche un attuale membro del consiglio di amministrazione di Oracle e membro del consiglio di sorveglianza di BMW, ha affermato che Vianai ha trascorso gli ultimi tre anni costruendo la nuova piattaforma MLOps, che, secondo lui, affronta due sfide fondamentali dell’IA aziendale di lunga data.
Affrontare le prestazioni e la gestione del rischio
Il primo è aiutare le aziende a ottenere prestazioni migliori dall’IA accelerando la velocità del modello e il throughput anche su hardware di base. “L’intelligenza artificiale è diventata un incredibile maiale di informatica”, ha detto.
Ad esempio, Schneider Electric, una delle più grandi aziende di produzione elettronica del mondo, disponeva di apparecchiature situate in aree remote lontane dal cloud, comprese fabbriche, giacimenti petroliferi e navi. L’azienda disponeva di alcune dozzine di modelli di intelligenza artificiale complessi che funzionavano su dispositivi edge distribuiti a livello globale. Ma correvano troppo lentamente, intorno a un fotogramma al secondo di immagini. La piattaforma MLOps ha migliorato notevolmente il runtime e ha distribuito modelli ottimizzati ai dispositivi perimetrali.
“Una soluzione sarebbe quella di ottenere attrezzature molto più costose e più grandi, ma anche se potessi portarle lì, ci vorrebbe un tempo incredibilmente lungo per aggiornare le macchine”, ha spiegato. “Abbiamo consentito loro di eseguire molte migliaia di fotogrammi in più al secondo, sullo stesso hardware”.
La piattaforma MLOps affronta anche le capacità di monitoraggio del rischio, come la qualità e l’integrità dei dati, la deriva, l’incertezza, la distorsione e la spiegazione. “L’azienda ha bisogno della capacità di capire quali sono i limiti di questi modelli”, ha affermato Sikka. “Fondamentalmente, si tratta di sapere se l’azienda capisce cosa fa un modello? Un responsabile del rischio o una persona operativa può comprendere i rischi e la governance attorno al modello?”
L’IA incentrata sull’uomo richiede un pensiero progettuale
Per comprendere quei confini, o i limiti di un modello di intelligenza artificiale, “devi trascenderlo”, ha aggiunto. “John McCarthy, il padre dell’IA, lo chiamava ‘cercare di capire la realtà dietro l’apparenza.’
In definitiva, ha spiegato, l’IA incentrata sull’uomo è un’IA “umile” che cerca di amplificare il lavoro umano e migliorare il giudizio umano. Per farlo è necessario il potere del design thinking, ovvero la comprensione della realtà di come gli esseri umani si impegneranno con l’IA.
“Lo scopo dell’apprendimento automatico è migliorare la situazione umana, non sostituire il giudizio della persona”, ha affermato. “Non puoi avere un’intelligenza artificiale incentrata sull’uomo senza comprendere il design dell’attività di intelligenza artificiale, come si collega al processo decisionale umano”.