Nel panorama aziendale italiano, Cerved Group S.p.A., rinomata società di consulenza e servizi alle imprese, è recentemente finita sotto i riflettori a causa di una decisione che ha sollevato non poche polemiche. Alla fine di novembre 2024, l’azienda ha interrotto improvvisamente i rapporti con 107 agenti Enasarco, motivando la scelta con il mancato raggiungimento degli obiettivi prefissati. Ciò che rende la vicenda particolarmente rilevante è l’impiego di un sistema basato sull’intelligenza artificiale (IA) per valutare le performance dei venditori, sollevando interrogativi sull’appropriatezza e l’equità di tali strumenti nel contesto lavorativo.

L’adozione dell’IA in ambito aziendale è spesso vista come un passo avanti verso l’efficienza e l’ottimizzazione dei processi. Tuttavia, l’utilizzo di algoritmi per valutare le performance dei dipendenti solleva questioni etiche e pratiche. Nel caso di Cerved, l’IA è stata impiegata per monitorare e analizzare le attività degli agenti di commercio, determinando il loro successo o fallimento nel raggiungimento degli obiettivi aziendali. Questo approccio ha portato al licenziamento simultaneo di tutti i 107 agenti, una decisione che ha destato sospetti e preoccupazioni tra i lavoratori e i loro rappresentanti legali.

Gli avvocati che rappresentano gli agenti licenziati hanno sollevato diverse obiezioni riguardo alle modalità e alle motivazioni dei licenziamenti. Una delle principali critiche riguarda la classificazione del mancato raggiungimento degli obiettivi come “inadempienza contrattuale”. Inoltre, è stato evidenziato che i risultati del 2023 sono stati valutati con un ritardo significativo, mentre quelli del 2024 sono stati considerati quando l’anno non era ancora concluso, rendendo difficile una valutazione accurata delle performance. La comunicazione simultanea dei licenziamenti il 30 novembre 2024 ha ulteriormente alimentato i dubbi sulla trasparenza e sull’equità del processo decisionale.

Di fronte alle contestazioni, Cerved ha respinto le accuse e ha proposto un incontro con le parti coinvolte per risolvere la questione al di fuori delle aule di tribunale. Tuttavia, la vicenda solleva interrogativi più ampi sull’uso dell’IA nella gestione delle risorse umane. Se da un lato tali strumenti possono offrire vantaggi in termini di efficienza, dall’altro è fondamentale garantire che le decisioni prese siano trasparenti, eque e rispettose dei diritti dei lavoratori.

Di Fantasy