Creare un’IA spiegabile con le regole

C’è un’affascinante dicotomia nell’intelligenza artificiale tra statistiche e regole, apprendimento automatico e sistemi esperti. I neofiti dell’intelligenza artificiale (AI) considerano l’apprendimento automatico come intrinsecamente superiore a sistemi basati su regole fragili, mentre la storia di questo campo rivela sia le regole che l’apprendimento probabilistico sono componenti integrali dell’IA.
Questo fatto è forse in nessun luogo più vero che nello stabilire un’IA spiegabile , che è centrale nel valore aziendale a lungo termine dei casi d’uso di front office di AI.

Certo, il semplice apprendimento automatico può automatizzare i processi di back-end. Tuttavia, la piena estensione dell’apprendimento profondo o reti neurali complesse – che sono molto più accurate rispetto all’apprendimento automatico di base – per decisioni e azioni mission-critical richiedono spiegabilità.

L’utilizzo di regole (e sistemi basati su regole) per spiegare i risultati dell’apprendimento automatico crea intelligenza artificiale spiegabile. Molte delle applicazioni di vasta portata dell’IA a livello aziendale – implementandolo per combattere i crimini finanziari, per prevedere il futuro immediato e a lungo termine di un individuo nell’assistenza sanitaria, ad esempio – richiedono un’IA comprensibile che sia equa, trasparente e conforme alle normative .

Le regole possono spiegare i risultati di apprendimento automatico per questi scopi e altri.

Spiegazioni basate su regole

La capacità di apprendimento dell’IA statistica eccelle in un sofisticato riconoscimento di pattern per determinare gli eventi di presaging dei segnali. Nell’assistenza sanitaria, l’apprendimento automatico è utile per combinare innumerevoli fattori per determinare la probabilità che un paziente necessiti di intubazione entro un periodo di tempo definito o essere a rischio di insufficienza cardiaca. In finanza, l’analisi di una gamma di dati marcatamente diversa, ma ugualmente ampia, può denotare complicate reti di riciclaggio di denaro che attraversano i continenti o la persona più vantaggiosa per offrire un tipo di mutuo specifico.

POTREBBE PIACERTI ANCHE
I problemi di spiegabilità sorgono perché gli output di apprendimento automatico sono numerici; le reti neurali profonde sono talmente opache che gli utenti non conoscono necessariamente quale fattore abbia contribuito a quale aspetto del punteggio risultante. Esistono diverse tecniche emergenti per aumentare la spiegabilità e l’interpretabilità dei risultati dell’apprendimento automatico. Dopo che le organizzazioni hanno acquisito una visione approfondita della scatola nera di intricati modelli di apprendimento automatico, il modo migliore per spiegare tali risultati a clienti, autorità di regolamentazione e persone giuridiche è tradurli in regole che, per la loro stessa definizione, offrono piena trasparenza per l’intelligenza artificiale spiegabile. Le regole possono anche evidenziare i punti di bias nei modelli.

Ragionamento simbolico

Le tecniche di spiegabilità contemporanea, o la regolazione dei pesi e delle misure degli input del modello per determinare i loro effetti sulle uscite, sono solo il primo passo verso un’IA spiegabile. Una volta identificati quei fattori per il motivo per cui vengono prodotti i risultati del modello, l’enumerazione con le regole rende trasparenti anche i modelli di apprendimento profondi più densi. Ciò che rende il lato della conoscenza dell’IA così influente durante i suoi anni formativi è basato sulle regole e potrebbe rivelarsi influente per spiegarle per spiegare i risultati dell’apprendimento automatico.

Le regole sono ripetibili, producendo costantemente la stessa uscita; gli output statistici di apprendimento automatico sono tenui nel migliore dei casi. L’integrazione di sistemi di intelligenza artificiale basati sulla conoscenza che coinvolgono il Prolog o altri aspetti del ragionamento simbolico può codificare complicate spiegazioni dei risultati dell’apprendimento automatico in regole sostenibili che sono ottimali per soddisfare i legislatori ei consumatori nell’assistenza sanitaria, nella finanza e in altri settori verticali. A differenza dell’apprendimento automatico, l’inferenza semantica del lato della base di conoscenza dell’IA comprende il significato dei suoi risultati di elaborazione, il che è prezioso per derivare regole per gli output di apprendimento automatico.

Feedback continuo

Il componente finale dell’uso delle regole per l’intelligenza artificiale spiegabile implica un apprendimento macchina aggiuntivo. È necessario eseguire l’apprendimento automatico sui risultati delle azioni create dai modelli di apprendimento automatico per vedere se i risultati erano effettivamente vantaggiosi o per determinare se c’è un modo per migliorarli. Pertanto, quando la microsegmentazione che i membri di una popolazione suburbana con una qualifica e un reddito di istruzione minima sono più appropriati per una particolare offerta di rendite, ad esempio, è importante eseguire l’apprendimento automatico per vedere come tale offerta ha un impatto sia sull’istituto finanziario che sui suoi clienti per vedere se ne hanno davvero guadagnato. Risultati di questo ciclo di feedback può influenzare le regole per spiegare i risultati dei modelli di apprendimento automatico utilizzati per prendere questa decisione o indicare le modifiche necessarie al modello e ai suoi dati di input.

La necessità di un’IA spiegabile

La necessità fondamentale dell’IA spiegabile comprende conformità normativa, equità, trasparenza, etica e mancanza di pregiudizi, sebbene questa non sia una lista completa. Ad esempio, l’efficacia di contrastare i reati finanziari e l’aumento delle entrate derivanti dalle previsioni avanzate di apprendimento automatico nei servizi finanziari potrebbe essere notevolmente migliorata implementando modelli di apprendimento approfondito più accurati. Ma tutto ciò sarebbe arduo da spiegare ai regolatori. La traduzione di questi risultati in regole spiegabili è la base per implementazioni di IA più diffuse che producono un impatto più significativo sulla società.

Di ihal