L’ex etico di Google AI chiama Bard e simili generatori di “tori ***”.
Intervista di analyticsindiamag.com
Passare all’adozione di sistemi di riconoscimento facciale, polizia predittiva, ShotSpotter o altre tecnologie di armonizzazione dei dati, intrappolerà sempre le stesse persone ancora e ancora.
“Ci sono molte persone che vanno fuori di testa per il modo in cui i modelli linguistici di grandi dimensioni (LLM) stanno facendo cose come scrivere saggi universitari, ecc. Il danno è che queste cose sono solo generatori di stronzate”, ha detto l’ex esperto di etica dell’IA di Google, Alex Hanna , in un’intervista esclusiva con Analytics India Magazine.
La dichiarazione di cui sopra arriva sullo sfondo del recente rilascio di Google del chatbot sperimentale AI “Bard “, costruito sul modello di linguaggio di grandi dimensioni LaMDA, che non sorprende che abbia creato un enorme contrattempo poiché uno dei fatti menzionati nel suo annuncio era completamente sbagliato . Ora, molti dei suoi dipendenti credono che sia stato “affrettato” sulla scia della popolarità di “ChatGPT”, sostenuto da Microsoft e sviluppato da OpenAI.
Hanna ha messo in dubbio la necessità di tali modelli, dato che il costo della formazione di questi modelli è estremamente elevato oltre al suo impatto sulle emissioni di carbonio. Soprattutto, ha detto: come servirà le persone più emarginate in questo momento?
Alimentato dall’avidità
“La grande tecnologia è attualmente troppo concentrata sui modelli linguistici perché il rilascio di questa tecnologia ha dimostrato di essere impressionante per la classe dei finanziatori, i VC, e ci sono molti soldi”, ha condiviso Hanna.
Crede che ci siano altri usi dell’IA che sono molto più diffusi. Ciò include l’uso dell’intelligenza artificiale per supportare le persone nell’allocazione del welfare o fornire servizi utili invece di monetizzare la tecnologia il più possibile. Hanna crede che queste cose (in particolare ChatGPT, Bard e altri) potrebbero togliere il potere di discriminare economicamente, socialmente e politicamente.
Abuso di dati
Inoltre, Hanna ha affermato che attualmente c’è un’esplosione di società di etichettatura dei dati. Ad esempio, il rapporto TIME che ha rivelato come OpenAI ha esternalizzato il lavoro di sourcing dei dati ai lavoratori kenioti per il suo prodotto di punta “ChatGPT”.
Ha affermato che i dati utilizzati per addestrare questi modelli (GPT-3.5 o LaMDA) sono proprietari o semplicemente estratti da Internet. “Non viene prestata molta attenzione ai diritti delle persone in quei dati – indicati anche come Interessati nell’Artificial Intelligence Act dell’UE – e anche delle persone che hanno creato quei dati, inclusi artisti, scrittori, ecc.” ha detto Hanna, spiegando che queste persone non vengono risarcite e la maggior parte delle aziende lo considera un ripensamento.
Ultimamente, diversi artisti hanno riferito di aver citato in giudizio tali organizzazioni o di aver cercato di trovare una remunerazione per il loro lavoro. Ad esempio, il recente caso in cui Sarah Andersen, Kelly McKernan e Karla Ortiz hanno trascinato in tribunale Midjourney, Devian Art e Stability.AI per aver utilizzato il loro lavoro per i dati senza il consenso esplicito.
Abuso di potere
Oggi, le aziende che affermano di essere “AI first” sono costruite sulle spalle di lavoratori sottopagati, come addetti ai dati, moderatori di contenuti, magazzinieri e autisti delle consegne. Il team di Hanna sta cercando di valutare e mitigare i danni causati dall’intelligenza artificiale, oltre a immaginare quali potrebbero essere i diversi tipi di intelligenza artificiale, in particolare con il contributo della comunità.
Ad esempio, Amazon mette sotto sorveglianza i suoi partner di consegna e i suoi lavoratori affinché le merci vengano consegnate rapidamente ai suoi clienti . Il documento interno ha rivelato che l’azienda ha costantemente monitorato i movimenti e le attività dei propri dipendenti che, in nome dell’intelligenza artificiale e dei progressi tecnologici, suona affascinante ma è uno sfruttamento dei lavoratori, ha sottolineato Hanna. “Stiamo difendendo dai danni della tecnologia, ma vogliamo davvero espanderci oltre”, ha aggiunto.
Il “DAIR” bisogno del momento
Mentre il pubblico è distratto dallo spettro delle macchine e dal rumore che questi grandi chatbot di modelli linguistici stanno creando, un esercito di ricercatori sta discutendo sull’intelligenza artificiale etica. È qui che entrano in gioco persone come Hanna. Il suo viaggio è iniziato nel lontano 2017, quando ha iniziato a interessarsi all’etica dell’IA.
“Ho iniziato a concentrarmi sull’uso delle tecnologie perché ho sempre avuto questo interesse per il modo in cui la società interagisce con l’informatica”, ha affermato Hanna. “Sono diventato disincantato dal fatto che questa roba non fosse realmente usata per servire le persone. Potrebbe anche essere utilizzato per la sorveglianza su vasta scala”.
Quando era Senior Research Scientist nel team Ethical AI di Google, Hanna ha messo in discussione prevalentemente l’approccio del settore tecnologico all’intelligenza artificiale. Tuttavia, nel tempo, è rimasta delusa dalla cultura dell’azienda, che considerava sia razzista che sessista. L’infelicità di Hanna è stata amplificata alla fine del 2020 quando Google ha licenziato Timnit Gebru , il co-responsabile del team Ethical AI.
Mentre l’episodio ha portato un nuovo livello di attenzione al suo lavoro, Hanna ha sfruttato al massimo questa stridente opportunità. Ora, sta tentando di apportare un cambiamento dall’esterno come direttrice della ricerca presso il Distributed Artificial Intelligence Research Institute , o DAIR. L’istituto si concentra sulla ricerca sull’IA dal punto di vista dei luoghi e delle persone che hanno maggiori probabilità di subirne i danni.
(Non) andare d’accordo
Quando le è stato chiesto in quali aree l’IA dovrebbe essere evitata, Hanna ha risposto con disappunto: “Non so come rispondere a questa domanda perché molti posti sono già stati occupati dall’IA che non dovrebbe esserlo”. Molto lavoro viene svolto in luoghi pericolosi come il benessere dei bambini, la sicurezza pubblica e la polizia. Hanna non crede nel ritorno ai modi tradizionali, ma afferma anche che l’attuale tecnologia non fornisce realmente soluzioni reali.
“Dobbiamo invertire ciò che queste tecnologie stanno rafforzando”, ha detto mentre elaborava l’istanza della polizia come sforzo razzista negli Stati Uniti. Passare all’adozione di sistemi di riconoscimento facciale, polizia predittiva, ShotSpotter o altre tecnologie di armonizzazione dei dati, intrappolerà sempre le stesse persone ancora e ancora. Fornirà ancora meno contesto alle persone che stanno prendendo queste decisioni. Quindi, la polizia deve essere completamente reinventata per servire le persone, ha concluso Hanna.