Una società ha deciso di risarcire i candidati al lavoro dopo aver utilizzato l’intelligenza artificiale (IA) per escludere coloro che erano più anziani durante il processo di selezione. Questo caso rappresenta un significativo sviluppo negli Stati Uniti, poiché segna il primo episodio di discriminazione attribuita all’uso dell’IA.

Secondo quanto riportato da Reuters, la U.S. Equal Employment Opportunity Commission (EEOC) ha intentato una causa contro iTutor Group, una compagnia di tutoraggio cinese. La compagnia ha accettato di versare un totale di 365.000 dollari a 200 candidati coinvolti, raggiungendo così un accordo.

In base ai dettagli dell’incidente, iTutor Group è stata accusata di aver programmato un software di reclutamento online in modo tale da filtrare le candidate femminili con età superiore a 55 anni e i candidati maschili con età superiore a 60 anni durante il processo di selezione degli istruttori nel 2020.

Sebbene iTutor Group abbia costantemente respinto le accuse, la compagnia ha alla fine riconosciuto la propria negligenza e ha preferito raggiungere un accordo.

Questo evento rappresenta il primo caso in cui l’EEOC è intervenuto riguardo a un’azienda che ha utilizzato l’IA per prendere decisioni nel processo di assunzione. L’agenzia ha avviato un’iniziativa con l’obiettivo di garantire che i sistemi di intelligenza artificiale utilizzati dai datori di lavoro rispettino le leggi antidiscriminazione, mettendo in guardia sul fatto che punirà severamente le compagnie che abusano dell’IA in questo contesto.

Al momento, iTutor Group non ha rilasciato dichiarazioni in risposta alla richiesta di commento e un rappresentante dell’EEOC ha comunicato che non saranno rilasciati commenti fino all’approvazione ufficiale dell’accordo. Quest’ultimo, a sua volta, è soggetto all’approvazione finale da parte di un giudice federale.

Un recente sondaggio ha rivelato che circa l’85% delle grandi aziende statunitensi si avvale dell’intelligenza artificiale nel processo di selezione del personale. Questo coinvolge l’uso di software che preseleziona i candidati prima che intervengano le risorse umane, chatbot che conducono colloqui a nome delle persone e programmi che effettuano revisioni delle performance e suggeriscono promozioni.

Tuttavia, molti dipendenti e figure politiche manifestano preoccupazione che i pregiudizi possano essere incorporati nei sistemi di intelligenza artificiale. Ciò perché l’IA è incline a imparare dai dati che riflettono pregiudizi di genere o razza, a prescindere dalle intenzioni aziendali.

Parallelamente, un’azione legale collettiva in corso presso il tribunale federale della California vede Workday accusata di aver progettato un software di reclutamento, utilizzato da numerose grandi aziende, che escluderebbe candidati neri, disabili e anziani. Workday ha negato le accuse di illecito.

Gli esperti prevedono un aumento delle controversie legali nei prossimi anni, poiché i datori di lavoro sfrutteranno sempre più l’IA per selezionare i candidati, mettendo così a rischio la parità di opportunità per coloro che cercano lavoro.

Di Fantasy