Obiettivo imparziale di avvio per aumentare la trasparenza dei dati attraverso Blockchain, combattere la distorsione dei dati
Gli effetti del bias dei dati nell’intelligenza artificiale sono ben documentati e poiché gli algoritmi di intelligenza artificiale e di apprendimento automatico penetrano sempre più in ogni angolo della società, le aziende di intelligenza artificiale sono alla ricerca di nuovi modi per garantire che gli algoritmi che sviluppano non ereditino i pregiudizi umani. Uno dei nuovi attori all’interno dello spazio di intelligenza artificiale e apprendimento automatico, con l’obiettivo di ridurre la distorsione dei dati è la startup dal nome trasparente Unbiated . Unbiated ha lanciato un nuovo mercato dei dati sulla piattaforma blockchain attiva Telos , sperando di fornire ai clienti strumenti e applicazioni decentralizzati e basati sulla privacy per la scienza dei dati e l’IA.
Si prevede che il mercato globale dell’IA continuerà la sua rapida crescita nel corso del prossimo decennio, raggiungendo circa 266 miliardi di dollari entro il 2027. Entro i prossimi quattro anni, la spesa mondiale per i sistemi di intelligenza artificiale e i componenti associati dovrebbe raddoppiare, raggiungendo circa 110 miliardi di dollari entro il 2024 secondo IDC. La rapida adozione di algoritmi di intelligenza artificiale in un numero sempre maggiore di industrie ha portato a crescenti preoccupazioni sulla trasparenza, la privacy, l’equità e la rappresentatività dei sistemi di intelligenza artificiale.
Ridurre i pregiudizi attraverso la trasparenza
Secondo un recente rapporto pubblicato dal CapGemini Research Institute , intitolato “AI and the Ethical Conundrum: How organizzazioni possono costruire sistemi di IA eticamente solidi e guadagnare fiducia”, l’uso etico dell’IA è diventato una delle principali preoccupazioni per i leader IT su tutta la linea, con la maggior parte dei leader IT ora esprime preoccupazione per il potenziale uso improprio dei sistemi di IA. Circa 9 organizzazioni IT su 10 hanno dichiarato di essere a conoscenza di almeno un incidente in cui sono stati creati problemi etici dall’applicazione di un sistema di intelligenza artificiale. Circa due terzi dei dirigenti IT hanno affermato di essere consapevoli di potenziali pregiudizi discriminatori nei sistemi di intelligenza artificiale e circa la metà di tutte le organizzazioni IT ha una carta etica intesa a fornire lo sviluppo dell’IA, rispetto a solo il cinque percento delle aziende IT nel 2019.
Mentre la ricerca su come rendere più equi gli algoritmi di intelligenza artificiale continua, molti esperti di etica e specialisti di intelligenza artificiale stanno concentrando l’attenzione sui dati utilizzati per addestrare l’IA. Man mano che gli algoritmi di intelligenza artificiale diventano più onnipresenti e standardizzati, l’attenzione si sposta sull’acquisizione dei dati necessari per addestrare i modelli.
Esistono molti modi per ridurre la distorsione dei dati negli algoritmi di intelligenza artificiale. Alcune tecniche comportano modifiche al modello o ai dati di addestramento durante l’addestramento del modello. Queste tecniche sono tecniche di correzione del bias “in elaborazione”. Ciò include l’uso di tecniche di addestramento del contraddittorio, che è dove alcune caratteristiche / variabili sensibili (come il sesso o la razza) vengono controllate penalizzando la capacità del modello di fare previsioni che coinvolgono la caratteristica in questione. Ciò viene fatto tentando contemporaneamente di ridurre al minimo l’errore del modello. Al contrario, concentrarsi sulla rimozione del bias dal set di dati è una tecnica di pre-elaborazione. I dati di formazione per i modelli di apprendimento automatico sono spesso etichettati manualmente e l’applicazione della blockchain potrebbe aiutare le aziende a tenere traccia del processo di etichettatura dei propri dati per garantire che i loro set di dati siano rappresentativi.
Unbusted sta cercando di blockchain per generare una cultura di trasparenza all’interno di dataset e data marketplace. La maggior parte degli strumenti utilizzati per generare set di dati per sistemi di intelligenza artificiale e algoritmi di apprendimento automatico sono centralizzati e, per questo motivo, spesso mancano di trasparenza. Unbedding mira a sfruttare la natura della blockchain per registrare le azioni che si svolgono nel loro mercato dei dati, che include lo scambio di dati, l’equazione di compiti e progetti e i contributi dei lavoratori. L’obiettivo è che la natura decentralizzata della blockchain di Telos faciliti la trasparenza, consentendo agli utenti di ottenere informazioni critiche sulla natura della loro scienza dei dati. Gli utenti saranno in grado di convalidare i propri set di dati e determinare se le annotazioni sono state effettuate in relazione a determinati principi etici, come correttezza e privacy.
Secondo Chief Architect di Telos Blockchain, l’intersezione di AI / machine learning con blockchain può portare a nuovi metodi trasformativi di lavoro con i dati. Come Horn è stato citato da AIthority:
“Unbusted mostrerà a queste industrie come la registrazione dei dati su una blockchain gratuita ad alte prestazioni come Telos può aggiungere trasparenza, immutabilità, micropagamenti e governance nei loro prodotti a vantaggio di tutte le parti interessate”.
Oltre alla trasparenza dei dati di addestramento, alcuni scienziati e ricercatori hanno spinto per una maggiore trasparenza in algoritmi, modelli e codice . Un team internazionale di scienziati ha chiesto che le riviste scientifiche sostengano i ricercatori di informatica a standard di trasparenza più elevati. I ricercatori hanno affermato che una maggiore trasparenza riguardo ai modelli e al codice di IA non solo aiuterebbe la riproducibilità degli studi, ma aiuterebbe anche la collaborazione tra i gruppi di ricerca. Molti studi scientifici non possono essere riprodotti e questo è un problema ancora maggiore per gli studi incentrati sull’IA che tralasciano i materiali critici. In futuro, la blockchain potrebbe persino essere utilizzata per migliorare il monitoraggio e la valutazione della ricerca nel campo dell’IA.