Nel giro di poche settimane, più di 200 lavoratori contrattuali che svolgevano attività di valutazione, revisione e affinamento delle risposte dei sistemi di intelligenza artificiale di Google, tra cui Gemini e AI Overviews, hanno ricevuto la notifica di licenziamento. È una storia che mescola tecnologia, diritti dei lavoratori, automazione e rapporti spesso ambigui tra imprese principali e subappaltatori. Ed è anche un segnale di quanto il futuro dell’AI non riguardi solo modelli, hardware e algoritmi, ma anche le persone che stanno dietro, cercando sicurezza, riconoscimento e equità.
Questi lavoratori, spesso assunti tramite la società di outsourcing GlobalLogic (di proprietà di Hitachi), erano chiamati a fare più di un semplice controllo superficiale. I “raters”, e in particolare i cosiddetti “super raters”, erano selezionati anche per titoli accademici elevati — master, dottorati — e provenivano da professioni creative, insegnanti, scrittori. Il loro compito era capire se le risposte generate dai modelli AI erano efficaci, naturali, ben fondate, se il motore di ricerca restituisse panoramiche utili e affidabili, se il chatbot sembrasse “umano” nel senso che non desse risposte stereotipate o palesemente errate.
Era un lavoro di fino, che richiedeva attenzione ai dettagli, contestualizzazione, senso critico. Tanto che molte volte questi valutatori dovevano riscrivere le risposte del modello, suggerire modifiche, segnalare casi borderline, verificare fonti, insomma operare come una sorta di filtro umano prima che il modello “metta in scena” ciò che poi vedono gli utenti.
I licenziamenti si sono verificati in almeno due ondate durante il mese di agosto 2025, lasciando molti dipendenti senza preavviso. Andrew Lauzon, uno dei lavoratori, ha raccontato di aver ricevuto un’email il 15 agosto che lo informava della cessazione del contratto, con una motivazione generica: “ramp-down del progetto”, “riduzione del personale”, termini vaghi che non spiegano né cosa succederà né se ci saranno sostituzioni.
Molti degli operatori licenziati non erano legati solo da un rapporto di lavoro “usuale”: alcuni erano parte di programmi che richiedevano competenze elevate, erano figure qualificate, destinate proprio a garantire che il modello AI fosse controllato, migliorato, valutato da persone con competenze. Eppure, nessun avviso ragionato, nessuna transizione apparente.
Il licenziamento non è avvenuto in un vuoto sindacale. Questi lavoratori avevano cominciato a muoversi per chiedere maggiore trasparenza salariale, condizioni migliori, e alcuni avevano cercato di formare un sindacato (o almeno un capitolo locale dell’Alphabet Workers Union) al fine di ottenere diritti e tutele più chiare.
Pare che queste iniziative siano state viste male: vengono citate accuse di soppressione del dialogo, di chiusura degli spazi sociali interni usati per comunicare tra colleghi, di ritorsioni. Alcuni sostengono che i licenziamenti siano avvenuti proprio in risposta a proteste, a richieste di trasparenza, a richieste di riconoscimento.
Un aspetto che emerge con chiarezza nella testimonianza dei lavoratori è il timore — non infondato — che l’azienda stia usando gli stessi valutatori umani per addestrare sistemi automatici che un giorno potrebbero sostituire la loro funzione. Alcuni documenti interni, secondo quanto riportato, mostrerebbero che GlobalLogic è al lavoro su strumenti che possano automatizzare la valutazione delle risposte generate dall’AI, riducendo la necessità di intervento umano nella catena di controllo.
Questo crea una doppia tensione: da un lato la difficoltà di avere stabilità lavorativa in un ambiente in cui le competenze specialistiche sono richieste, ma la posizione è contrattuale e precaria; dall’altro il rischio che un giorno queste stesse competenze non siano più necessarie, se l’automazione diventa abbastanza efficace.
Google, da parte sua, ha cercato di prendere le distanze formalmente da queste azioni, affermando che i lavoratori interessati non sono impiegati direttamente da Alphabet (la capogruppo di Google), ma da GlobalLogic o da subappaltatori. Ha detto che la responsabilità delle condizioni lavorative è di queste società.
GlobalLogic, invece, ha in gran parte evitato di commentare in dettaglio. Ci sono accuse di disparità salariali: ad esempio, “super raters” direttamente assunti da GlobalLogic guadagnavano tra 28 e 32 dollari l’ora, mentre quelli assunti tramite terze parti per lo stesso tipo di lavoro ricevevano tra 18 e 22 dollari l’ora. E ci sono contratti che non prevedono benefici, ferie pagate, sicurezza occupazionale.
Il caso solleva questioni che vanno ben oltre questo gruppo di licenziamenti. Innanzitutto, fa riflettere su quale sia il valore “nascosto” che i lavoratori umani svolgono nell’addestramento dei modelli AI: spesso invisibili all’utente finale, ma essenziali per rendere l’esperienza “umana”, sensata, credibile. Quando queste persone vengono licenziate, non è solo una questione economica, ma di perdita di competenza, di conoscenza tacita, di cultura tecnica che non si trasmette sempre facilmente.
Eticamente, il fatto che il licenziamento – secondo i loro racconti – sia potenzialmente collegato a richieste di migliori condizioni di lavoro, di sindacato, di trasparenza salariale, la rende una questione che tocca i diritti dei lavoratori, non solo l’economia dell’outsourcing. Se chi chiede trasparenza o migliori condizioni viene punito, la fiducia si erode.
Infine, c’è il tema dell’automazione che sostituisce i ruoli umani. È un fenomeno già discusso nel mondo dell’AI: ma qui, appare chiaramente che una parte del lavoro “umano” viene usata per costruire strumenti che potrebbero rendere quel lavoro non necessario. L’eccellenza tecnologica ha un prezzo, e questo caso mostra che quel prezzo può essere molto personale.