L’intelligenza artificiale (AI) è molto efficace nell’analisi di volumi estremi di dati e nel prendere decisioni basate su informazioni che vanno oltre i limiti della comprensione umana. Ma soffre di un grave difetto: non può spiegare come arriva alle conclusioni che presenta, almeno, non in un modo che la maggior parte delle persone possa capire.

Questa caratteristica della ” scatola nera ” sta iniziando a creare seri problemi nelle applicazioni che l’IA sta potenziando, in particolare in campo medico, finanziario e in altri campi critici, dove il “perché” di qualsiasi azione particolare è spesso più importante del “cosa”.


Una sbirciatina sotto il cofano
Ciò sta portando a un nuovo campo di studio chiamato IA spiegabile (XAI), che cerca di infondere negli algoritmi di intelligenza artificiale una trasparenza sufficiente in modo che gli utenti al di fuori del regno dei data scientist e dei programmatori possano ricontrollare la logica della loro IA per assicurarsi che funzioni all’interno del limiti di ragionamento accettabile, pregiudizi e altri fattori. 
Come ha osservato di recente lo scrittore di tecnologia Scott Clark su CMSWire , l’IA spiegabile fornisce le informazioni necessarie sul processo decisionale per consentire agli utenti di capire perché si sta comportando in quel modo. In questo modo, le organizzazioni saranno in grado di identificare i difetti nei propri modelli di dati, il che alla fine porta a capacità predittive potenziate e a una visione più approfondita di cosa funziona e cosa no con le applicazioni basate sull’intelligenza artificiale.

L’elemento chiave in XAI è la fiducia . Senza ciò, il dubbio persisterà all’interno di qualsiasi azione o decisione generata da un modello di IA e ciò aumenta il rischio di implementazione in ambienti di produzione in cui si suppone che l’IA apporti un vero valore all’impresa.

Secondo il National Institute of Standards and Technology , l’IA spiegabile dovrebbe essere costruita attorno a quattro principi:

Spiegazione – la capacità di fornire prove, supporto o ragionamento per ciascun output;
Significatività : la capacità di trasmettere spiegazioni in modi che gli utenti possano comprendere;
Precisione : la capacità di spiegare non solo il motivo per cui è stata presa una decisione, ma anche come è stata presa e;
Limiti della conoscenza : la capacità di determinare quando le sue conclusioni non sono affidabili perché cadono oltre i limiti della sua progettazione.
Sebbene questi principi possano essere utilizzati per guidare lo sviluppo e l’addestramento di algoritmi intelligenti, hanno anche lo scopo di guidare la comprensione umana di cosa significa spiegabile quando applicati a ciò che è essenzialmente un costrutto matematico.

L’acquirente fa attenzione all’IA spiegabile
Il problema chiave con XAI attualmente, secondo Jeremy Kahn di Fortune , è che è già diventata una parola d’ordine del marketing spingere le piattaforme fuori dalla porta piuttosto che una vera designazione di prodotto sviluppata secondo qualsiasi ragionevole insieme di standard. 


Quando gli acquirenti si rendono conto che “spiegabile” può semplicemente significare una serie di incomprensioni che possono avere o meno qualcosa a che fare con il compito in questione, il sistema è stato implementato ed è molto costoso e richiede tempo per effettuare un passaggio. Gli studi in corso stanno riscontrando difetti in molte delle principali tecniche di spiegabilità come troppo semplicistiche e incapaci di chiarire perché un determinato set di dati è stato ritenuto importante o non importante per l’output dell’algoritmo.

Questo è in parte il motivo per cui l’IA spiegabile non è sufficiente, afferma Anthony Habayeb , CEO di Monitaur, sviluppatore di governance dell’IA . Ciò di cui hai veramente bisogno è un’intelligenza artificiale comprensibile. La differenza sta nel contesto più ampio che la comprensione ha rispetto alla spiegazione. Come ogni insegnante sa, puoi spiegare qualcosa ai tuoi studenti, ma ciò non significa che lo capiranno, soprattutto se mancano di una precedente base di conoscenza richiesta per la comprensione. Per l’IA, ciò significa che gli utenti non dovrebbero solo avere trasparenza su come funziona il modello ora, ma su come e perché è stato selezionato per questo particolare compito; quali dati sono stati inseriti nel modello e perché; quali problemi sono emersi durante lo sviluppo e la formazione e una miriade di altri problemi.

In sostanza, la spiegazione è un problema di gestione dei dati . Sviluppare gli strumenti e le tecniche per esaminare i processi di intelligenza artificiale a un livello così granulare per comprenderli appieno e farlo in un lasso di tempo ragionevole, non sarà né facile né economico. E probabilmente richiederà uno sforzo uguale da parte della forza lavoro della conoscenza per coinvolgere l’IA in un modo che possa comprendere la logica caotica e spesso sconnessa del cervello umano.

Dopotutto, ce ne vogliono due per formare un dialogo.

Di ihal