Il recente post di Marc Andreessen, imprenditore e investitore, riguardo alle segnalazioni di moderazione dei contenuti in OpenAI ha sollevato discussioni intense sulla persistenza dei pregiudizi nei modelli di intelligenza artificiale.

Andreessen ha evidenziato che le categorie meno segnalate nella classifica di moderazione includono la classe media e i ricchi, insieme ai repubblicani. Al contrario, le categorie in cima alla classifica sono spesso considerate sensibili e inclini a essere segnalate. Questo fenomeno ricorda il problema emerso con Google Gemini, che ha prodotto risultati distorti e imprecisi, come “Black Nazis” e “Black George Washington”.

Anche in India, il modello di intelligenza artificiale di Google ha generato risposte parziali contro importanti partiti politici, nonostante le scuse di Google per il comportamento di Gemini.

Elon Musk ha ribadito le preoccupazioni riguardanti i pregiudizi nei modelli di intelligenza artificiale, sottolineando che tali pregiudizi potrebbero essere progettati per escludere gli avversari ideologici del creatore. Tuttavia, Musk e altri riconoscono che eliminare completamente i pregiudizi non è un compito semplice.

François Chollet, ingegnere del deep learning presso Google, ha osservato che i pregiudizi nei sistemi di machine learning possono derivare da molteplici fonti, inclusi i dati di addestramento e le valutazioni umane dei modelli.

Yann LeCun di Meta AI ha affermato che è impossibile creare un sistema di intelligenza artificiale privo di pregiudizi, poiché le percezioni di bias possono variare notevolmente tra individui e contesti.

L’open source è stato proposto come una possibile soluzione per affrontare i pregiudizi nell’intelligenza artificiale, con Musk e LeCun che sostengono l’importanza di rendere i modelli e i dati accessibili a un vasto pubblico.

Nonostante gli sforzi per mitigare il problema, i pregiudizi persistono nei modelli di intelligenza artificiale, come dimostrato da ricerche recenti che evidenziano discriminazioni basate sul nome e sulle immagini generate.

In conclusione, finché i pregiudizi nell’intelligenza artificiale rimarranno irrisolti, la classe media e altri segmenti della società rischieranno di essere ignorati, con conseguenze significative sui posti di lavoro e sulla società nel suo complesso.

Di Fantasy