Immagine AI

L’intelligenza artificiale generativa, con la sua capacità di creare immagini iperrealistiche in pochi istanti, è diventata uno strumento potente che riflette e, potenzialmente, amplifica le narrazioni visive predominanti nella nostra società. Un recente studio condotto dai ricercatori dell’Università di Toronto e pubblicato sul Journal of Mass Media Psychology, rivista dell’American Psychological Association (APA), ha messo in luce un aspetto cruciale e preoccupante: quando si chiede all’AI di visualizzare il “corpo ideale” per uomini e donne, atleti e non atleti, gli output risultanti sono pesantemente influenzati da pregiudizi sistemici e da una persistente aderenza agli stereotipi diffusi dai social media.

Il team di ricerca ha utilizzato noti strumenti di generazione di immagini, come Midjourney, Dall-E e Stable Diffusion, per creare e successivamente analizzare statisticamente trecento immagini, convertendole in dati quantificabili. L’obiettivo era svelare quali modelli specifici venissero rinforzati inconsciamente dalle vaste quantità di dati di addestramento su cui si basano queste intelligenze artificiali. I risultati hanno confermato i timori preesistenti: l’IA non solo perpetua gli stereotipi, ma li incanala in rappresentazioni visive estremamente specifiche e rigide.

Nel dettaglio, i ricercatori hanno osservato una marcata distinzione tra i corpi di atleti e quelli del pubblico generico. Le immagini generate per gli atleti mostravano in modo sproporzionato percentuali di grasso corporeo inferiori e una massa muscolare molto più pronunciata rispetto ai non atleti, sottolineando un ideale di prestazione fisica estrema.

Tuttavia, è nell’analisi delle differenze di genere che i pregiudizi si sono manifestati con maggiore forza e in modo più preoccupante. Le immagini femminili tendevano a enfatizzare la giovinezza, l’attrazione del viso, la presenza di capelli biondi e un’abbigliamento spesso succinto, come costumi da bagno. Le rappresentazioni maschili, al contrario, erano caratterizzate da corpi muscolosi, spesso a torso nudo e talvolta persino pelosi. Questa divergenza è stata interpretata come una chiara evidenza della persistenza di un’oggettivazione sessuale di genere, dove l’AI riproduce la tendenza della società a focalizzarsi sull’attrattiva fisica e sull’esposizione del corpo femminile. Inoltre, sia per gli uomini che per le donne, erano onnipresenti abiti e pose che miravano a enfatizzare l’aspetto fisico, un fenomeno che i ricercatori ritengono essere un’influenza negativa diretta dei contenuti veicolati dai social media.

Un altro elemento critico emerso dallo studio è stata l’allarmante mancanza di diversità nelle immagini generate. La stragrande maggioranza dei corpi ritratti era giovane e caucasica, senza alcuna rappresentazione di individui con disabilità o una significativa varietà razziale ed età. Il pregiudizio di genere si è rivelato particolarmente forte nell’ambito sportivo: quando i ricercatori hanno chiesto all’IA di generare immagini di “atleti” senza specificare il genere, quasi il novanta percento delle immagini risultanti raffigurava corpi maschili, un dato che rivela un pregiudizio intrinseco dell’IA verso la mascolinità quando si parla di eccellenza atletica.

Questo fenomeno di distorsione non è nuovo nel panorama dell’IA. Già nel 2018, studi precedenti avevano dimostrato che i sistemi di riconoscimento facciale delle grandi aziende erano significativamente meno accurati nel classificare il genere di soggetti femminili con la pelle scura rispetto a soggetti maschili bianchi. Inoltre, ricerche più recenti hanno confermato che il pregiudizio di genere è spesso quattro volte più forte nelle immagini online rispetto al testo e che LLM come ChatGPT mostrano pregiudizi di età e genere, ad esempio stimando le donne come più giovani della loro età media effettiva o favorendo candidati maschi più anziani per le stesse posizioni professionali.

La professoressa Serene Sabiston dell’Università di Toronto ha lanciato un monito: la diffusione incontrollata di tali immagini generate dall’IA rischia di esacerbare i pregiudizi esistenti. Se non si considera attivamente la necessità di includere fattori come il genere, la razza, la disabilità e l’età nella progettazione e nell’addestramento dei sistemi di intelligenza artificiale, si continueranno a perpetuare immagini dannose e rigide di come un atleta — o qualsiasi individuo — dovrebbe apparire. Il problema non è l’IA in sé, ma il riflesso distorto dei dati che consuma, che sono a loro volta carichi dei pregiudizi sociali che l’umanità sta cercando di superare. L’intelligenza artificiale, lungi dall’essere neutrale, agisce come uno specchio che ingigantisce le disuguaglianze e gli ideali irrealistici già presenti, rendendo la battaglia per una rappresentazione più inclusiva e sana del corpo ancora più urgente nell’era digitale.

Di Fantasy