Una causa legale di grande impatto è stata intentata contro Eightfold AI, una piattaforma statunitense che utilizza l’intelligenza artificiale per analizzare e valutare candidati in fase di assunzione, accusata di aver compilato rapporti di valutazione dei candidati senza il loro consenso né la loro consapevolezza, mettendo così in discussione il modo in cui le tecnologie basate sull’IA vengono integrate nei processi di selezione del personale e quanto siano trasparenti e conformi alle leggi esistenti. La denuncia, depositata in un tribunale della California il 20 gennaio 2026, rappresenta il primo caso negli Stati Uniti in cui si contesta a una società di recruiting basata sull’IA la violazione del Fair Credit Reporting Act (FCRA), una legge federale che da decenni protegge le persone dai rischi derivanti da rapporti informativi non autorizzati e da utilizzi impropri dei dati personali.
La dinamica che ha portato alla causa legale si concentra su uno degli aspetti più controversi dell’uso dell’intelligenza artificiale nei processi di selezione: la creazione di profili dettagliati dei candidati e la loro classifica in base a punteggi, caratteristiche personali e previsioni sul loro potenziale successo in un ruolo lavorativo. Secondo i querelanti, tra cui Erin Kistler e Sruti Bhaumik, questi rapporti vengono generati dal sistema di Eightfold e forniti ai datori di lavoro come parte della loro decisione di assumere o scartare un candidato, senza che i diretti interessati ne siano stati informati né abbiano avuto modo di conoscerne il contenuto o correggere eventuali errori.
Nella denuncia si sostiene che Eightfold utilizzi i propri strumenti — chiamati “Evaluation Tools” — per analizzare enormi quantità di dati, tra cui curriculum caricati, informazioni pubbliche online e altri elementi tratti dalla rete, e che questi dati vengano trasformati in valutazioni su scala da zero a cinque, con termini descrittivi come “introverso”, “team player” o giudizi sulla qualità dell’istruzione di un candidato. Tali profili non vengono soltanto presentati ai recruiter come parte di un suggerimento, ma diventano veri e propri “rapporti sui consumatori” nel linguaggio della legge, perché usati per influenzare decisioni decisive sul futuro professionale di una persona.
Secondo l’interpretazione dei querelanti, questi rapporti dovrebbero rientrare nelle stesse regole che da decenni si applicano alle società che forniscono informazioni di credito o background check per impieghi. Il Fair Credit Reporting Act, infatti, richiede specifiche divulgazioni, l’ottenimento del consenso degli individui valutati e la possibilità per questi ultimi di visualizzare, accedere e contestare eventuali inesattezze nei rapporti che riguardano loro stessi. Senza questi passaggi, sostengono i ricorrenti, l’uso di tali profili viola i diritti dei candidati e mette a rischio la loro possibilità di ottenere un impiego basandosi su informazioni accurate e giuste.
L’accusa non richiama soltanto la legge federale, ma cita anche una normativa della California concepita proprio per garantire ai consumatori il diritto di accedere e contestare rapporti usati nei processi di assunzione e di credito. In assenza di trasparenza, i candidati si trovano nella condizione di non sapere nemmeno che tali rapporti esistono, di non poterne consultare i contenuti e di non avere alcuna possibilità di correggere errori che potrebbero aver influenzato negativamente la loro candidatura.
Le implicazioni del caso contro Eightfold sono più ampie di una singola controversia legale. Riflettono una tensione crescente tra l’adozione rapida e diffusa di strumenti di intelligenza artificiale nelle risorse umane e i diritti fondamentali delle persone valutate da questi sistemi. In molti settori la promessa dell’IA nel recruiting è quella di accelerare la selezione, individuare talenti nascosti e ridurre i bias umani, ma quando questi strumenti operano in modo opaco, senza informare adeguatamente i candidati e senza consentire loro di comprendere come vengono giudicati, emergono problemi di equità, trasparenza e responsabilità che la legge non può ignorare.
La risposta di Eightfold, riportata da alcuni organi di stampa, sottolinea che la piattaforma opera su dati forniti direttamente dai candidati o dai clienti e non effettua “web scraping” di social media o altri contenuti esterni, ribadendo il proprio impegno verso un uso responsabile dell’intelligenza artificiale e la conformità alle normative sulla protezione dei dati e l’occupazione. Tuttavia, la causa illustrata nel tribunale californiano mette in evidenza come, almeno secondo i querelanti, queste garanzie non siano sufficienti se i candidati non vengono messi in condizione di sapere in che modo e per quale scopo i loro dati vengono elaborati, classificati e infine inviati ai potenziali datori di lavoro.
Questo caso rappresenta una delle prime battaglie giuridiche significative negli Stati Uniti attorno all’uso dell’intelligenza artificiale nel mondo del lavoro e potrebbe aprire la strada a una revisione delle regole che governano l’adozione di tecnologie automatizzate nei processi di selezione. Se le leggi già esistenti come il FCRA si applicano esplicitamente anche agli strumenti di AI, ciò costringerebbe le aziende che li sviluppano e li utilizzano a ripensare come essi siano progettati, quali informazioni raccolgano, ma soprattutto come siano comunicati e regolamentati in relazione ai diritti individuali dei candidati. E in un’epoca in cui l’IA si trova sempre più coinvolta nelle decisioni che riguardano l’occupazione e le opportunità professionali, la trasparenza e la tutela delle persone potrebbero diventare un nodo imprescindibile di qualsiasi strategia di innovazione tecnologica applicata alle risorse umane.
