Immagine AI

L’intelligenza artificiale (IA) è ormai parte integrante della nostra quotidianità, influenzando decisioni in ambito lavorativo, educativo e sanitario. Tuttavia, dietro la sua apparente neutralità, si celano pregiudizi che riflettono e amplificano stereotipi di genere e razza. Un recente studio dell’UNESCO ha evidenziato come i modelli linguistici generativi tendano ad associare le donne a ruoli familiari e domestici quattro volte più spesso rispetto agli uomini. Inoltre, nel linguaggio, i pronomi maschili sono più frequenti, e parole come “leader” o “ambizioso” sono più spesso legate a nomi maschili.

Queste distorsioni non si limitano al linguaggio verbale. Analisi condotte dalla University of Washington hanno mostrato che l’IA genera immagini in cui le donne appaiono più giovani, sorridenti e remissive, mentre gli uomini sono raffigurati più anziani, seri e autorevoli. Uno studio dell’University of Wisconsin-Madison ha confermato questa tendenza, analizzando 15.300 immagini generate da DALL·E 2 su 153 professioni: le donne risultavano sottorappresentate nei ruoli di prestigio e inquadrate con posture sottomesse e sorrisi accentuati.

Queste distorsioni hanno implicazioni significative. Secondo un rapporto dell’Organizzazione Internazionale del Lavoro (OIL), il 9,6% dei lavori svolti da donne nei paesi a reddito alto è a rischio di automazione da parte dell’IA, contro appena il 3,5% di quelli svolti da uomini. Ciò suggerisce che l’IA potrebbe perpetuare e amplificare le disuguaglianze di genere esistenti nel mercato del lavoro.

Un altro aspetto critico riguarda la progettazione dell’IA. Un’analisi di Interface ha rilevato che solo il 22% dei professionisti del settore a livello globale è donna, e appena il 14% ricopre ruoli esecutivi senior. Questa limitata rappresentanza influisce direttamente su come vengono costruiti i sistemi: dalla raccolta dati, alla selezione dei prompt, fino alla fase di testing. Il legame tra omogeneità dei team e persistenza dei bias è stato documentato da diversi studi. La University of Washington ha evidenziato come, in simulazioni di selezione del personale, i modelli di IA tendano a favorire sistematicamente i candidati maschi, anche a parità di competenze e qualifiche.

Non si tratta solo di “pregiudizi tecnici”, ma di dinamiche sistemiche. Se l’IA apprende da un mondo storicamente sbilanciato, tenderà a consolidare quegli stessi squilibri — a meno che non venga progettata per fare il contrario.

Per affrontare queste sfide, è fondamentale promuovere l’inclusione e la diversità nella progettazione dell’IA. Includere più donne e persone provenienti da diverse etnie e background culturali nei team di sviluppo può contribuire a creare sistemi più equi e rappresentativi della società nel suo complesso. Inoltre, è essenziale sensibilizzare gli utenti e i professionisti del settore sui bias presenti nell’IA e sviluppare strumenti e metodologie per rilevarli e correggerli.

Di Fantasy