Il nuovo servizio “Explainable AI” (xAI) di Google
Google ha iniziato a offrire un nuovo servizio per “AI spiegabili” o XAI, come viene chiamato alla moda. Gli strumenti attualmente offerti sono modesti, ma l’intento è nella giusta direzione.

L’IA ha un problema di spiegabilità
L’intelligenza artificiale è destinata a trasformare la produttività globale, i modelli di lavoro e gli stili di vita e creare un’enorme ricchezza.
La società di ricerca Gartner prevede che l’economia globale dell’intelligenza artificiale aumenterà da circa 1,2 trilioni di dollari l’anno scorso a circa 3,9 trilioni di dollari entro il 2022 , mentre McKinsey la vedrà fornire un’attività economica globale di circa 13 trilioni di dollari entro il 2030 .
Le tecniche di intelligenza artificiale, in particolare i modelli di guadagno D eep L , stanno rivoluzionando il mondo degli affari e della tecnologia con prestazioni strabilianti in un’area di applicazione dopo l’altra: classificazione delle immagini, rilevamento degli oggetti, tracciamento degli oggetti, riconoscimento delle pose, analisi video, generazione di immagini sintetiche – solo per citarne alcuni.
Sono utilizzati in: sanità, servizi IT, finanza, produzione, guida autonoma, riproduzione di videogiochi, scoperta scientifica e persino nel sistema giudiziario penale.
Tuttavia, sono come tutt’altro che algoritmi / tecniche classiche di guadagno M achine L (ML). I modelli DL utilizzano milioni di parametri e creano rappresentazioni interne estremamente complesse e altamente non lineari delle immagini o dei set di dati che vengono loro inviati.
Pertanto, vengono spesso chiamate le tecniche ML perfette per la scatola nera . Possiamo ottenere previsioni molto accurate da loro dopo averli addestrati con set di dati di grandi dimensioni, ma abbiamo poche speranze di comprendere le caratteristiche interne e le rappresentazioni dei dati che un modello utilizza per classificare un’immagine particolare in una categoria.


Google ha avviato un nuovo servizio per affrontarlo
Senza dubbio, Google (o la sua società madre Alphabet) ha una grande partecipazione al corretto sviluppo dell’enorme economia abilitata all’intelligenza artificiale, come proiettato da analisti aziendali ed economisti (vedere la sezione precedente).
Google, notoriamente, aveva impostato la sua politica strategica ufficiale su “AI-first”, già nel 2017 .
Pertanto, si sente forse la pressione di essere il portatore di torce nel settore per rendere l’IA meno misteriosa e più suscettibile alla base di utenti generale, offrendo un servizio in AI spiegabile.
Cos’è l’IA (o xAI) spiegabile?
L’idea è semplice come suggerisce il nome. Volete che il vostro modello sputi, non solo previsioni ma anche qualche spiegazione, sul perché le previsioni si sono rivelate così .

Ma perché è necessario?
Questo articolo tratta alcuni punti essenziali. Le ragioni principali per cui i sistemi di intelligenza artificiale offrono spiegabilità sono:
Migliora la leggibilità umana
Determinare la giustificabilità della decisione presa dalla macchina
Aiutare a decidere la responsabilità, la responsabilità che porta a un buon processo decisionale
Evita le discriminazioni
Ridurre i pregiudizi sociali
C’è ancora molto dibattito al riguardo, ma sta emergendo un consenso sul fatto che la giustificazione post-predizione non è un approccio corretto. Gli obiettivi di spiegabilità dovrebbero essere integrati nel modello / sistema di intelligenza artificiale nella fase di progettazione principale e dovrebbero essere parte integrante del sistema piuttosto che un attaccamento.
Sono stati proposti alcuni metodi popolari.
Comprendi meglio i dati : visualizzazione intuitiva che mostra le caratteristiche discriminatorie
Comprendi meglio il modello – visualizzando l’attivazione degli strati di rete neurale.
Comprendere meglio la psicologia e il comportamento dell’utente – incorporando modelli comportamentali nel sistema accanto all’apprendimento statistico e generare / consolidare dati / spiegazioni appropriati lungo il percorso
Anche DARPA ha avviato un intero programma per costruire e progettare questi principi e algoritmi XAI per i futuri sistemi di difesa basati su AI / ML.
Gli obiettivi di spiegabilità dovrebbero essere integrati nel modello / sistema AI nella fase di progettazione principale
Leggi questo articolo per una discussione approfondita del concetto.
L’intelligenza artificiale dovrebbe spiegarsi? o dovremmo progettare l’intelligenza artificiale spiegabile in modo che non sia necessario
In questo articolo, esaminerò:
towardsdatascience.com
Google Cloud spera di condurre in xAI
Google è leader nell’attirare talenti di intelligenza artificiale e ML ed è il gigante indiscusso nell’attuale economia mondiale basata sull’informazione. Tuttavia, i suoi servizi cloud sono un terzo distante rispetto a quelli di Amazon e Microsoft.

Fonte: i migliori fornitori di cloud 2019
Tuttavia, come sottolinea questo articolo , sebbene le guerre tradizionali di infrastruttura come servizio siano state ampiamente decise, nuove tecnologie come AI e ML hanno aperto il campo ai giocatori per nuovi temi, strategie e approcci da provare .
Basandosi su queste linee di pensiero, durante un evento a Londra questa settimana, la divisione di cloud computing di Google ha lanciato una nuova struttura che spera possa dargli un vantaggio su Microsoft e Amazon.
Il famoso ricercatore di intelligenza artificiale Prof. Andrew Moore ha introdotto e spiegato questo servizio a Londra.

Prof. Andrew Moore a Londra per Google Cloud, spiegabile lancio del servizio AI, fonte
Dal loro blog ufficiale ,
“L’intelligenza artificiale spiegabile è un insieme di strumenti e framework per aiutarti a sviluppare modelli di apprendimento automatico interpretabili e inclusivi e implementarli con fiducia. Con esso, puoi comprendere le attribuzioni delle funzioni nelle tabelle AutoML e nella piattaforma AI e investigare visivamente il comportamento del modello utilizzando lo strumento What-If. “
Inizialmente – obiettivi modesti
Inizialmente, gli obiettivi e la portata sono piuttosto modesti. Il servizio fornirà informazioni sulle prestazioni e le potenziali carenze dei modelli di rilevamento di volti e oggetti.
Tuttavia, con il tempo, GCP spera di offrire una serie più ampia di intuizioni e visualizzazioni per aiutare a rendere meno misteriosi e più affidabili i meccanismi interni dei suoi sistemi di intelligenza artificiale.
Nuove tecnologie come AI e ML hanno aperto il campo ai giocatori del servizio Cloud per nuovi temi, strategie e approcci da provare.
Il Prof. Moore è stato sincero nella sua accettazione del fatto che i sistemi di intelligenza artificiale hanno messo a dura prova anche le menti migliori di Google in termini di spiegabilità
” Una delle cose che ci fa impazzire in Google è che spesso costruiamo modelli di machine learning davvero accurati, ma dobbiamo capire perché stanno facendo quello che stanno facendo. E in molti sistemi di grandi dimensioni, realizzati per i nostri smartphone o per i nostri sistemi di classificazione delle ricerche o per i sistemi di risposta alle domande, abbiamo lavorato internamente per capire cosa stesse succedendo. ”
Uno dei modi in cui Google spera di fornire agli utenti una spiegazione migliore è attraverso le cosiddette schede modello .

Scheda modello Google per il rilevamento dei volti, Fonte: articolo ZDNet
Google era solito offrire uno strumento What-If di analisi dello scenario . Stanno incoraggiando gli utenti ad associare nuovi strumenti di spiegabilità a questo framework di analisi degli scenari.
“Puoi associare le spiegazioni AI con il nostro strumento What-If per ottenere un quadro completo del comportamento del tuo modello”, ha affermato Tracy Frey, direttore della strategia di Google Cloud.

Lo strumento What-If di Google AI
Ed è un componente aggiuntivo gratuito, per ora . Gli strumenti AI spiegabili sono forniti gratuitamente agli utenti delle tabelle AutoML o della piattaforma AI.
Per maggiori dettagli e una prospettiva storica, ti preghiamo di prendere in considerazione la lettura di questo meraviglioso white paper .
Nel complesso, sembra un buon inizio. Anche se non tutti, anche all’interno di Google, sono entusiasti dell’idea di xAI.
Alcuni dicono che il pregiudizio è un problema più grande
In passato, Peter Norvig, direttore della ricerca di Google , aveva parlato dell’intelligenza artificiale spiegabile,
“Puoi chiedere a un essere umano, ma, sai, ciò che gli psicologi cognitivi hanno scoperto è che quando chiedi a un essere umano non stai davvero prendendo decisioni. Prendono prima una decisione e poi tu chiedi, quindi generano una spiegazione e questa potrebbe non essere la vera spiegazione. “
Quindi, essenzialmente, il nostro processo decisionale è limitato dalla psicologia e non sarà diverso per una macchina. Dobbiamo davvero modificare questi meccanismi per l’intelligenza delle macchine e cosa succede se la risposta e le intuizioni che emergono non sono appetibili per gli utenti?
Invece, ha sostenuto che il monitoraggio e l’identificazione di parzialità e correttezza nel processo decisionale della macchina dovrebbe essere dato più pensiero e importanza.
Perché ciò avvenga, il lavoro interiore di un modello non è necessariamente il posto migliore in cui guardare. Si può esaminare l’insieme delle decisioni di output prese dal sistema nel tempo e identificare modelli specifici di meccanismi di distorsione nascosti.
Deviazione e correttezza dovrebbero avere più importanza di una semplice spiegazione per i futuri sistemi di intelligenza artificiale?

Se richiedi un prestito e vieni rifiutato, un servizio di intelligenza artificiale spiegabile potrebbe emettere una dichiarazione del tipo: “la tua richiesta di prestito è stata respinta a causa della mancanza di sufficienti prove di reddito “. Tuttavia, chiunque abbia costruito modelli ML, sa che il processo non è quello monodimensionale e la struttura e i pesi specifici dei modelli matematici che danno origine a tale decisione (spesso come un insieme) dipendono dal set di dati raccolti, che può essere distorto contro alcune fasce di persone nella società in materia di reddito e mobilità economica.
Quindi, il dibattito si scatenerà sull’importanza relativa di disporre semplicemente di un sistema che mostri spiegazioni rudimentali e annacquate e che costruisca un sistema con meno preconcetti e un grado di equità molto più elevato.

Di ihal