I chatbots sono ovunque. Nei servizi, nelle imprese e persino nelle nostre vite personali, i bot artificialmente intelligenti stanno diventando un luogo comune. Ma con ogni progresso tecnologico vengono le preoccupazioni, e il crescente uso dell’intelligenza artificiale è un argomento particolarmente caldo.
Parte della paura intorno all’IA è il mistero dietro a quali sono le sue capacità. Come fa un robot a prendere una decisione? Può avere simpatie o antipatie? Un’IA può essere assolutamente neutrale se è stata progettata dagli esseri umani? Con l’ubiquità della tecnologia, le persone sono preoccupate per il punto in cui la rapida innovazione in questo campo della tecnologia ci sta portando. Una delle maggiori preoccupazioni che sento oggi è come affrontare e limitare il pregiudizio nell’intelligenza artificiale.
È possibile che un chatbot elimini il pregiudizio, ma spetta agli architetti umani impostare il compagno di squadra artificiale nella giusta direzione.
Tutto inizia con un set di dati rappresentativo.
Quando un’impresa implementa il software AI, trovo imperativo che il chatbot risolva un set di dati che rappresenta pienamente l’organizzazione. Una serie di dati rappresentativi dovrebbe includere una selezione equilibrata di individui provenienti da un’organizzazione (interna) o una serie rappresentativa di clienti (esterni).
Gli ingegneri del software devono essere particolarmente diligenti con l’infrastruttura di apprendimento automatico ei set di campioni in modo che l’algoritmo possa discriminare i dati in un modo che abbia senso. Ad esempio, se il programma preleva da un set di dati di un’organizzazione che include solo la leadership senior, i risultati per l’organizzazione nel suo insieme potrebbero essere fortemente distorti e travisati.
Fondamentalmente, gli algoritmi stanno ricavando dai dati forniti dagli esseri umani – e i dati distorti portano a un’IA distorta. Se gli ingegneri del software addestrano l’intelligenza artificiale con un campione rappresentativo di dati fin dall’inizio, i bias possono essere ridotti nel tempo.
La mentalità “imposta e dimentica” può portare a inesattezze.
Oltre ad avere un set di dati rappresentativo, anche il compagno di squadra artificiale di un’organizzazione dovrebbe avere la capacità di apprendere. Nella mia esperienza, i set di formazione dati AI non possono essere progetti “impostalo e dimenticalo”: devono evolversi e migliorarsi nel tempo. Devono anche essere controllati, proprio come un genitore che controlla le abitudini televisive di un bambino. Lo spettacolo riflette i nostri valori? L’età dei contenuti è appropriata? Ci sono stati cambiamenti nel comportamento che lo show potrebbe aver influenzato?
La “educazione” di un’IA potrebbe uscire dai binari se non selezionata. Considera cosa è successo quando IBM Watson ha memorizzato il dizionario urbano . L’intelligenza artificiale ha quindi iniziato a bestemmiare perché non era in grado di distinguere tra linguaggio educato e maleducato. Il team IBM ha cancellato il Dizionario Urbano dalla memoria di Watson e Watson ha perso la sua bocca da vasino, ma la lezione rimane.
L’IA ha bisogno di sistemi di supervisione e feedback umani, idealmente dall’interno dell’azienda che utilizza la soluzione – perché nessuno conoscerà le sfumature della sua cultura meglio di quella dell’azienda. Una società che implementa una soluzione dovrebbe consentire agli utenti di inviare informazioni all’IA per addestrarla. Tuttavia, l’azienda deve anche moderare questo feedback degli utenti in modo che i loro pregiudizi non diventino parte dell’algoritmo. È un equilibrio delicato, ma ho trovato che l’intelligenza artificiale funziona meglio quando gli esseri umani moderano moderatamente la sua educazione e guidano la sua crescita.
Mentre il tuo compagno di squadra artificiale otterrà un sacco di formazione e aggiornamento da parte degli esseri umani, la creazione di un chatbot autocosciente potrebbe anche ridurre il pregiudizio. Ciò significa che l’algoritmo di apprendimento automatico sottostante può capire quando la risposta corretta non è nel suo lessico e fare una domanda di chiarimento. Includere un chiarificatore può consentire all’IA di eliminare situazioni in cui il set di dati potrebbe essere intrinsecamente parziale. Ad esempio, un gruppo di cuochi esperti costruisce un chatbot per aiutare a cucinare, ma l’utente medio non sa come “sbollentare” o “emulsionare” qualsiasi cosa. Se le istruzioni e le conversazioni iniziano a spostarsi lateralmente, è possibile addestrare il chatbot a riconoscere la sua incertezza e i suoi pregiudizi predefiniti e porre domande chiare per colmare il divario.
Lascia parlare i modelli.
Mentre il tuo chatbot deve essere auto-correggente per ridurre i bias, deve anche essere in grado di distinguere tra i pattern. Al loro centro, gli algoritmi di apprendimento automatico cercano i punti dati che si distinguono. Questo è ciò che li aiuta a prendere decisioni. Allo stesso modo in cui gli esseri umani prendono decisioni, gli algoritmi di apprendimento automatico cercano i pregiudizi raccogliendo e assimilando i modelli.
Ad esempio, se esiste un algoritmo di apprendimento automatico che classifica sia i criminali che i non criminali e tutti i criminali inclusi nei dati sono alti 6 piedi e 2 pollici, l’algoritmo di apprendimento automatico potrebbe rilevare un pattern che insiste su ogni persona alta è un criminale. L’apprendimento automatico non è di parte. L’algoritmo non è di parte. Si basa sul set di dati che gli esseri umani hanno fornito. In questo caso, la mancanza di dati diversi ha portato a un modello errato.
Nel complesso, eliminare il pregiudizio nell’intelligenza artificiale è un processo continuo e coinvolto, ma non è impossibile. Credo che l’intelligenza artificiale possa essere una risorsa potente quando si tratta di ridurre i pregiudizi umani perché può portare a decisioni coerenti. In un ambiente aziendale, puoi pensare all’IA come a un equalizzatore, un compagno di squadra che prende decisioni calcolate basandosi unicamente sui fatti che ha davanti. Mentre la paura della parzialità nell’intelligenza artificiale è legittima, gli esseri umani stanno creando i sistemi e gli ingegneri del software possono prendere provvedimenti per eliminarlo. La cosa più importante è riconoscere la minaccia di pregiudizi e sistemi di costruzione che possono essere corretti e migliorati.