In un mondo in cui la velocità dei contenuti digitali sfida ogni criterio tradizionale, TikTok sta compiendo una scelta che riflette questa urgenza: nel Regno Unito, centinaia di posti di lavoro rischiano di scomparire, sostituiti da algoritmi. Una decisione che strappa il velo su dubbi profondi riguardo a sicurezza, controllo e responsabilità nell’era digitale contemporanea.

Il social network, nel quadro di una ristrutturazione globale, ha annunciato che molte delle sue operazioni legate alla moderazione dei contenuti — fino a oggi gestite da persone — saranno progressivamente concentrate in hub regionali e progressivamente automatizzate con l’ausilio dell’intelligenza artificiale. L’obiettivo dichiarato è quello di “rafforzare il nostro modello operativo globale per Trust & Safety”, riducendo le sedi operative e sfruttando i progressi tecnologici.

Secondo una stima del Financial Times, si tratta di circa 300 posti di lavoro a rischio nella sede londinese, una percentuale significativa su un totale di circa 2.500 dipendenti nel Regno Unito. La decisione, resa nota poco prima di una votazione importante sul riconoscimento del sindacato interno, è stata interpretata da molti come un atto di pressione nei confronti dei lavoratori. In particolare, il sindacato Communication Workers Union ha denunciato come “union-busting” il tempismo dell’annuncio.

Quel che sorprende, tra le righe delle comunicazioni ufficiali, è la fiducia di TikTok nell’efficacia dell’automazione: l’azienda dichiara che oltre l’85% dei contenuti violativi viene già rimosso automaticamente, e una percentuale ancora maggiore viene individuata prima ancora che gli utenti segnalino qualcosa. Questo dato sottolinea la convinzione di TikTok nell’affidare sempre più compiti sensibili all’AI.

Eppure, non mancano le critiche. Il sindacato — e non solo — avanza timori riguardo all’accuratezza e alla maturazione dei sistemi in uso, ritenuti ancora “sviluppati in fretta e immaturi”. In una delicata congiuntura normativa, come quella dettata dall’Online Safety Act entrato in vigore recentemente nel Regno Unito, la responsabilità è alta: le piattaforme devono fronteggiare contenuti illegali con rigore, pena multe salatissime.

Nel frattempo, il precedente tedesco — con i licenziamenti di 150 moderatori a Berlino e le proteste sindacali che ne sono seguite — mostra come TikTok stia perseguendo questo cambiamento su più fronti, e con non poche tensioni. A preoccuparci non è solo il costo sociale, ma la qualità delle scelte e dei controlli che l’automazione deve garantire.

D’altro canto, TikTok può contare su numeri solidi: nel 2024, i ricavi in Europa sono aumentati del 38%, raggiungendo i 6,3 miliardi di dollari, mentre le perdite operative si sono ridotte sensibilmente. Una crescita che spalanca scenari più ambiziosi — ma anche più delicati — sul piano della gestione delle responsabilità sociali.

In questo contesto, emerge una domanda centrale: quando le persone vengono sostituite con l’AI, cosa perdiamo di umano e di essenziale nel presidio della moderazione? L’efficienza promossa dall’algoritmo convive davvero con l’attenzione, la sensibilità, il contesto e la coscienza normativa che solo un essere umano può garantire?

Di Fantasy