L’App di Microsoft per i non vedenti ha definito un bambino “sfacciato”. Ecco perché è importante
Il mio vicino Katina non si adatta alla descrizione di un precoce utilizzo della tecnologia.
Lei è una scultrice di 75 anni e per gran parte della sua età adulta è stata completamente cieca. Ma la tecnologia imposta il ritmo per la sua vita. Un monitor per il glucosio portatile legge una patch sul braccio per gestire il diabete. La musica classica suona attraverso il suo altoparlante di Google Home. Sfoglia il suo iPhone, il suo schermo sempre vuoto, con una vertiginosa raffica di rubinetti e salti.
Un giorno si siede per mostrarmi una nuova app che sta provando, chiamata Seeing AI. Lanciato a luglio 2017 da Microsoft per le persone con problemi di vista, utilizza il software di riconoscimento della vista dell’azienda, una forma di intelligenza artificiale che concede in licenza ad altre aziende, per raccontare il mondo attraverso la fotocamera del suo telefono.
Desideroso di provarlo da solo, io uso l’app per scattare una foto di Katina. Una voce maschile robotica dice: “Una donna di quarantacinque anni con i capelli castani sorridenti”.
“Mi piace!” Dice, chiaramente soddisfatta dell’età che le ha dato. Mia figlia di 8 anni si trova nelle vicinanze. Prova a fare una faccia buffa, dico io. Quando lo fa, l’app ha questo da segnalare: “Una bambina di sei anni con i capelli castani sembra sprezzante”.
Non possiamo fare a meno di ridere. Più tardi, però, l’affermazione della app mi dà una pausa. Il suo ultimo giudizio non era esattamente sbagliato, dato che mia figlia aveva tirato fuori la lingua. Ma questa era una parola audace per un computer da scegliere.
Nel giro di poche settimane parlo con Saqib Shaikh, uno dei principali ingegneri di Microsoft dietro alla Seeing AI, che è stata anche cieca fin dall’infanzia. In che modo la sua app ha scelto una descrizione come “sprezzante?”. È venuto fuori che dai dati venivano addestrati gli algoritmi di Microsoft.
Per costruire il sistema, i ricercatori di Microsoft a Cambridge, nel Regno Unito, hanno deciso un insieme di otto emozioni che abbracciavano etnie e culture, tra cui tristezza, rabbia, paura e disprezzo, spiega. Microsoft ha annunciato quella ricerca nel novembre 2015, quando ha rilasciato uno strumento di riconoscimento delle emozioni che altri sviluppatori di software potrebbero utilizzare per creare app.
“Gli scienziati hanno inventato una lista delle cose che pensavano fossero importanti, come sesso ed età, colore dei capelli ed emozione”, dice Shaikh. Quindi una squadra di umani ha classificato migliaia di immagini con quelle descrizioni per insegnare il software.
E si scopre, aggiunge, che la stessa ricerca è alla base del più classico software di riconoscimento della vista che Microsoft ora vende alle aziende sotto il nome di Cognitive Services. Una società di business intelligence chiamata Prism Skylabs, ad esempio, l’ ha utilizzata per aiutare i rivenditori a monitorare i feed video per vedere quando i loro camion di consegna sono arrivati.
Anche se vedere l’IA ha un piccolo pubblico di utenti, la sua evoluzione indica come il resto di noi potrebbe utilizzare la tecnologia basata sull’intelligenza artificiale come il riconoscimento della vista in futuro. Già gran parte della tecnologia che le persone usano oggi, dal mouse del computer al software text-to-speech al testo predittivo, anche la macchina da scrivere, ha le sue radici nella ricerca sulla disabilità .
Audible deve forse la sua esistenza alle persone non vedenti, e Nuance, la compagnia di tecnologia vocale che un tempo era abituata a potenziare la Siri di Apple, è nata dalla ricerca sulla disabilità, mi hanno detto i dirigenti di quella società. La necessità è la madre dell’invenzione, e i non udenti e ipovedenti sono improbabili pionieri della tecnologia.
“Ci siamo evoluti per elaborare discorso e linguaggio”, dice Tony Allen, un ex docente della Nottingham Trent University che stava lavorando su sistemi vocali e compilazione automatizzata di moduli online per persone con disabilità già nel 1998, anticipando l’Alexa di Amazon di 16 anni. “Abbiamo bisogno di adattare i computer a noi piuttosto che adattarci ai computer”. Lo sviluppo di tecnologie per persone che sono cieche, sorde o paralizzate può contribuire a spingere ulteriormente la ricerca in quella direzione, aggiunge.
Oggi gli apparecchi acustici truccati stanno già trovando le tasche dell’adozione tradizionale. Gli AirPod wireless di Apple hanno una funzione per le persone con problemi di udito, chiamate Live Listen, che consente loro di utilizzare un microfono iPhone per ascoltare le conversazioni in una stanza rumorosa. Le persone con un buon udito hanno sfruttato la funzione per l’ascolto nascosto .
Starkey Hearing Technologies ha iniziato nel 1970 come produttore di apparecchi acustici a Eden Prairie, Minnesota. Ora sta lanciando quello che chiama il primo apparecchio acustico intelligente al mondo, un dispositivo sottile e sottile che traccia i passaggi, rileva cadute e può tradurre più di 20 lingue. L’aggiunta di tutte quelle funzionalità extra “è il modo in cui le tecnologie uditive si trasformeranno nel mainstream”, afferma il direttore tecnico di Starkey, Paul Lamb, che è un utente di apparecchi acustici.
Katina usa AI vedenti per leggere le carte scritte a mano e per contare il cambio nella sua borsetta. Robin Spinks, che è parzialmente ipovedente, usa l’app per leggere il menu quando visita un ristorante. “Lo faccio in modo molto discreto, quindi non sembro diverso da nessun altro”, afferma Spinks, aggiungendo che l’app si rivolge direttamente a un Apple AirPod nel suo orecchio. “È un effetto incredibilmente normalizzante.”
Un’altra persona cieca ha usato l’app per narrare i sottotitoli di un film in lingua straniera, mentre un altro punta il telefono alla TV durante le partite di calcio in modo che possa leggerlo all’ultimo punteggio, dice Shaikh. Shaikh spera un giorno di usare l’app per riconoscere i punti di riferimento mentre cammina per strada, come negozi o nuove costruzioni.
Shaikh, che ha 37 anni e vive a Londra, ha aiutato la punta di diamante nel vedere AI nel 2014 durante una riunione di ingegneri Microsoft.
Alla fine hanno usato il software di deep-learning di Microsoft, un approccio popolare all’IA che utilizza strati di dati per aiutare a prevedere un risultato. Hanno aggiunto i propri dati di allenamento al sistema, scattando migliaia di fotografie di $ 10 fatture in modo che l’app potesse riconoscere denaro e valute.
Ma ci sono modi più carnali che Shaikh possa aggiornare la sua app.
Chiedo a Katina se ci sono certi altri dettagli che le piacerebbe sapere delle persone che incontra, narrandole in privato. “Pulizia”, risponde subito. “Lo trovo estremamente importante. Se una persona sembra curata. Ben curato Potrebbero avere toppe o vestiti strappati, ma essere puliti. ”
Spinks desidera maggiori dettagli sulla storia dell’arte, sulla gente o sull’architettura che lo circonda. Descrive questi indizi visivi come cose che le persone vedenti danno per scontate. “La gente numero uno [cieco] vuole la gente è la parità con le persone pienamente avvistate”, dice Spinks, che lavora anche per il Royal National Institute of Blind people in the UK
Un collega di Spinks che è cieco ha detto che gli piacerebbe un’app che discretamente gli dica se qualcuno è attraente o meno. “Questa è una richiesta autentica”, afferma Spinks.
Microsoft avrebbe conferito alla sua IA una tale capacità? Che dire della razza o della forma del corpo di qualcuno?
“In generale crediamo che dovremmo fornire informazioni che consentano ai nostri clienti di esprimere giudizi”, afferma Shaikh. “Non penso che sia … non vuoi che un’app faccia giudizi per te, perché sono cose molto personali.”
È un sentimento nobile, ma vedere l’IA sta già emettendo giudizi personali su età ed emozioni. E mentre Shaikh dice che gli utenti possono contattare Microsoft con correzioni, molti semplicemente si fidano di ciò che l’algoritmo dice loro. Shaikh non esclude il sistema identificando l’attrattiva o la corsa lungo la linea.
Se così fosse, ciò potrebbe portare i ciechi più vicino alla parità che Spinks spera, ma potrebbe anche creare nuove complicazioni intorno al pregiudizio quando tale tecnologia diventerà mainstream. Durante la nostra intervista, Katina inizia a tornare alla sua richiesta di intuizione nell’ordine quando ricorda un incontro con un uomo nel suo parco locale.
“Siamo entrati in conversazione, ed è stato perfettamente bello e normale”, dice. Mentre salutavano, un amico nelle vicinanze rivelò che Katina non avrebbe parlato con l’uomo se avesse potuto vedere che aspetto avesse. “Era sporco”, disse l’amico.
“Ma era carino. Perfettamente bello, “ricorda Katina. “Questo mi ha insegnato una lezione.”