I ‘trucchi’ di AI ci rendono superbi?
Mentre gli sviluppatori di software costruiscono una quantità crescente di Intelligenza Artificiale (AI) nelle app sui nostri desktop e nelle nostre tasche, siamo diventati più consapevoli e preoccupati della natura dell’intelligenza artificiale dell’IA che viene impiegata.
Le preoccupazioni in questo spazio si sono incentrate sui pregiudizi di IA e sull’etica dell’IA. Se gestiamo il mondo con le app di IA, allora possiamo essere sicuri che i motori del software dietro di loro siano stati privati di qualsiasi pregiudizio di genere (o di altro genere) che potrebbe essere stato programmato consciamente o inconsciamente in loro? L’etica dell’IA è anche una questione spinosa. Se gestiamo il mondo con le app di IA, allora come possiamo assicurarci che le sensibilità culturali, religiose e di altro tipo siano soddisfatte?
In termini di base, abbiamo bisogno di sapere di più sullo spettro dell’intelligenza dietro al processo di pensiero dell’IA e capire di più su come formuli le decisioni che prende per noi.
IA spiegabile
Le apprensioni nello spazio dell’IA hanno dato origine a discussioni attorno alla cosiddetta Explainable AI (XAI). A volte chiamato IA Interpretabile (IAI) o AI Trasparente (TAI) e spesso gemellato con il concetto di AI FAT, cioè AI con FAT (Equità, Responsabilità e Trasparenza) IA spiegabile si riferisce alle tecniche dell’Intelligenza Artificiale in cui le decisioni che prende può essere considerato affidabile e facilmente comprensibile dagli esseri umani.
Come ha affermato il collaboratore di Forbes, Tom Davenport , “Se usiamo l’intelligenza artificiale in un settore regolamentato, dovremmo essere in grado di spiegare in che modo la macchina ha predetto una frode o un sospetto criminale, un cattivo rischio di credito o un buon candidato per le sperimentazioni sui farmaci”.
All’altra estremità dello spettro – e in contrasto abbastanza direttamente con l’IA intelligibile e priva di pregiudizi eticamente consapevole – troviamo l’IA ingannatrice.
Cos’è l’intelligenza artificiale?
Una buona intelligenza artificiale è l’intelligenza che risolve le cose osservando i valori dei dati e poi utilizza un algoritmo per calcolare la risposta al problema che è stato incaricato di risolvere e creare così nuove conoscenze. L’intelligenza artificiale ingannevole ha ancora capacità di acquisizione dei dati e funziona con algoritmi, ma utilizza strategie di abbaglio per scorciatoia o generalizza i risultati che produce.
Quindi, in che modo l’IA cattiva effettivamente imbroglia?
Il capo del gruppo Machine Learning all’Istituto Fraunhofer Heinrich Hertz (HHI) di Berlino, in Germania, è il Dr. Wojciech Samek. Spiegando che il suo dipartimento ha identificato diversi tipi di strategie di IA, tra cui imbrogli, Dr. Samek spiega che la sua organizzazione ha collaborato con Technische Universität Berlin (TU Berlin) e Singapore University of Technology and Design (SUTD) per cercare di dare uno sguardo il diverso spettro di intelligenza osservato negli attuali sistemi di intelligenza artificiale.
[Per capire l’intelligenza artificiale, prendi in considerazione l’esempio del] sistema AI che ha vinto la sfida di classificazione delle immagini PASCAL VOC , che rilevava le imbarcazioni solo dalla presenza di acqua, gli aerei solo dalla presenza di cielo blu e cavalli dalla presenza di un tag di copyright specifico ma comune, che era presente in molte immagini di cavalli “, ha detto il dott. Samek. “Inoltre, l’IA che è stata addestrata a giocare all’Atari Game Pinball non usava le pinne per farlo (come farebbe un umano), ma stava controllando la palla” spingendo il tavolo “.
La LRP (Layer-wise Relevance Propagation) è una tecnologia sviluppata da TU Berlin e Fraunhofer HHI, che consente di ‘visualizzare IA’ (cioè il computer è in grado di ‘guardare’ un’immagine) sulla base di criteri specifici che i sistemi IA usano quando prendere decisioni. Spectral Relevance Analysis (SpRAy), un’estensione della tecnologia LRP, identifica e quantifica un ampio spettro di comportamenti decisionali appresi. Ciò consente anche di identificare il processo decisionale indesiderato , anche in insiemi di dati molto grandi.
“Ciò che chiamiamo ‘IA spiegabile’ è uno dei passi più importanti verso un’applicazione pratica e la diffusione dell’IA”, ha affermato il Dr. Klaus-Robert Müller, professore di apprendimento automatico presso la TU Berlin. “Dobbiamo garantire che non vengano utilizzati algoritmi di intelligenza artificiale con sospette strategie di risoluzione dei problemi o algoritmi che impiegano strategie di cheating, specialmente in aree come la diagnosi medica oi sistemi critici per la sicurezza.”
Dati di addestramento e risoluzione dei problemi
Il direttore dell’architettura strategica presso l’azienda di operazioni AI (AIOps) Moogsoft Dominic Wellington ci ricorda che ciò che potremmo definire “ingannare l’IA” non è altro che l’IA che trova modelli diversi da quelli che ci aspettavamo che trovasse. Suggerisce che questo non è necessariamente un fattore negativo, solo uno di cui dobbiamo essere consapevoli.
“L’esempio di un classificatore di immagini che ha appreso che le immagini dei cavalli tendevano ad includere le note sul copyright e catturato su questa caratteristica facilmente riconoscibile ci sta dicendo di un problema con i suoi dati di allenamento. In altre situazioni, questa capacità di individuare modelli inattesi potrebbe essere utile, evitando i preconcetti che gli esseri umani potrebbero avere sul comportamento previsto di un sistema. L’IA spiegabile è anche un termine che richiede un po ‘di disimballaggio. Per definizione, i sistemi di intelligenza artificiale non saranno “spiegabili” nel senso di essere in grado di mostrare un albero decisionale per ogni singola uscita, ma allo stesso modo, tali output dovrebbero essere paragonabili a quelli “noti” come definito da utenti umani di un sistema. Se il classificatore di cavalli non riesce costantemente a identificare i cavalli, i suoi operatori umani devono essere in grado di risolverli – se non nello specifico,
Alla fine, tutta questa discussione torna ai processi di cui fanno parte i sistemi di intelligenza artificiale. Questi sistemi devono essere progettati per consentire l’attrazione e la supervisione umana, non trattati come “oracoli infallibili” di alcun tipo.
La Wellington di Moogsoft insiste sul fatto che le classificazioni errate dell’IA sono in realtà opportunità per perfezionare e migliorare il sistema – ma dice, per sfruttare queste opportunità, deve esserci un meccanismo in atto per segnalare i problemi in primo luogo – e alcuni di quelle ingegnose scorciatoie potrebbero sembrare superficiali come barare.
AI capisce
Gli esseri umani sono stati preoccupati per la possibilità che i computer conquistassero il pianeta fintanto che abbiamo avuto cervello macchina come parte della nostra vita. Mentre l’ascesa dei robot probabilmente non è proprio dietro l’angolo, abbiamo la responsabilità di guardare dentro i cervelli della macchina che stiamo attualmente costruendo, mentre valutiamo lo spettro dell’intelligenza che viene ingegnerizzata.
A meno che non ingaggiamo il cervello di IA, allora opereranno con la potenziale abilità di imbrogliare, o di imparare come imbrogliare. Anche allora, come suggerito sopra, alcuni trucchi potrebbero svilupparsi. Quindi la lezione qui è che i trucchi per l’intelligenza artificiale non dovrebbero e non ci metteranno in astuzia, ma solo se siamo consapevoli che quegli esercizi di taglio corto esistono in primo luogo in modo che possiamo usarli come punti di apprendimento per costruire migliori sistemi di IA nel futuro.