I ricercatori sviluppano uno strumento “DeepTrust” per aumentare l’affidabilità dell’IA
La sicurezza e l’affidabilità dell’intelligenza artificiale (AI) è uno degli aspetti più importanti della tecnologia. Viene costantemente migliorato e lavorato dai massimi esperti nei diversi campi e sarà fondamentale per la piena implementazione dell’IA nella società.
Parte di questo nuovo lavoro sta uscendo dalla University of Southern California, dove i ricercatori dell’USC Viterbi Engineering hanno sviluppato un nuovo strumento in grado di generare indicatori automatici per stabilire se gli algoritmi di intelligenza artificiale sono affidabili o meno nei loro dati e previsioni.
La ricerca è stata pubblicata su Frontiers in Artificial Intelligence , intitolata ” There is Hope After All: Quantifying Opinion and Trustworthiness in Neural Networks “. Gli autori del documento includono Mingxi Cheng, Shahin Nazarian e Paul Bogdan dell’USC Cyber Physical Systems Group.
Affidabilità delle reti neurali
Uno dei compiti più importanti in quest’area è fare in modo che le reti neurali generino previsioni affidabili. In molti casi, questo è ciò che impedisce la piena adozione della tecnologia che si basa sull’IA.
Ad esempio, i veicoli a guida autonoma devono agire in modo indipendente e prendere decisioni accurate sul pilota automatico. Devono essere in grado di prendere queste decisioni in modo estremamente rapido, mentre decifrano e riconoscono gli oggetti sulla strada. Questo è fondamentale, specialmente negli scenari in cui la tecnologia dovrebbe decifrare la differenza tra un dosso, qualche altro oggetto o un essere vivente.
Altri scenari includono il veicolo a guida autonoma che decide cosa fare quando un altro veicolo lo affronta frontalmente, e la decisione più complessa di tutte è se quel veicolo a guida autonoma deve decidere tra colpire ciò che percepisce come un altro veicolo, un oggetto, o un essere vivente.
Tutto ciò significa che stiamo riponendo un’estrema fiducia nella capacità del software del veicolo a guida autonoma di prendere la decisione corretta in poche frazioni di secondo. Diventa ancora più difficile quando ci sono informazioni contrastanti da diversi sensori, come la visione artificiale di telecamere e Lidar.
L’autore principale Minxi Cheng ha deciso di prendere in considerazione questo progetto dopo aver pensato: “Anche gli esseri umani possono essere indecisi in certi scenari decisionali. In casi che coinvolgono informazioni contrastanti, perché le macchine non possono dircelo quando non lo sanno? “
DeepTrust
Lo strumento creato dai ricercatori si chiama DeepTrust ed è in grado di quantificare la quantità di incertezza, secondo Paul Bogdan, professore associato presso il Dipartimento di ingegneria elettrica e informatica di Ming Hsieh.
Il team ha trascorso quasi due anni a sviluppare DeepTrust, utilizzando principalmente la logica soggettiva per valutare le reti neurali. In un esempio del funzionamento dello strumento, è stato possibile esaminare i sondaggi delle elezioni presidenziali del 2016 e prevedere che c’era un maggiore margine di errore per la vittoria di Hillary Clinton.
Lo strumento DeepTrust semplifica inoltre il test dell’affidabilità degli algoritmi di intelligenza artificiale normalmente addestrati su un massimo di milioni di punti dati. L’altro modo per farlo è controllare indipendentemente ciascuno dei punti dati per testare l’accuratezza, operazione che richiede molto tempo.
Secondo i ricercatori, l’architettura di questi sistemi di reti neurali è più accurata e la precisione e la fiducia possono essere massimizzate contemporaneamente.
“A nostra conoscenza, non esiste un modello o uno strumento di quantificazione della fiducia per il deep learning , l’intelligenza artificiale e l’apprendimento automatico . Questo è il primo approccio e apre nuove direzioni di ricerca “, afferma Bogdan.
Bogdan ritiene inoltre che DeepTrust potrebbe aiutare a spingere l’IA in avanti fino al punto in cui è “consapevole e adattabile”.