L’intelligenza artificiale generativa (AI) sta dando vita a una nuova categoria di lavoro conosciuta come “moderatore di contenuti AI”. Questo ruolo specializzato si concentra esclusivamente sulla revisione dei risultati prodotti dall’intelligenza artificiale generativa ed è emerso dopo la figura dell'”ingegnere dei prompt”.
Secondo quanto riferito dal Wall Street Journal e dalla CNBC, mentre la preoccupazione per la disoccupazione causata dalla diffusione dell’intelligenza artificiale generativa è in aumento, sta crescendo anche il numero di opportunità di lavoro legate all’esame dell’idoneità dei testi o delle immagini generati da questa tecnologia.
Un’azienda americana chiamata Prolipic, che fornisce supporto agli sviluppatori di intelligenza artificiale, sta attualmente conducendo un programma in cui le persone sono compensate per la revisione dei dati generati dall’intelligenza artificiale. Questi revisori ricevono una formazione specifica dai clienti di Prolipic, tra cui giganti come Google e Meta, e contribuiscono allo sviluppo dell’intelligenza artificiale esaminando i risultati prodotti e fornendo feedback su eventuali problemi.
Questo settore è in crescita e ha attirato investimenti significativi, con Prolipic che ha raccolto ben 32 milioni di dollari in investimenti da parte di Partech e Oxford Science Enterprise nel mese di luglio.
Un’altra azienda, il produttore di software Intuit, ha costituito un team interno di moderatori di contenuti per evitare la diffusione di linguaggio dannoso e altre disfunzioni nei suoi sistemi di intelligenza artificiale. Inizialmente, il team era composto da soli 8 membri, poiché la selezione di personale comportava sfide legate alla sicurezza dei dati gestiti.
Questo ruolo di “moderatore di contenuti AI” non è del tutto nuovo, ma rappresenta un’evoluzione rispetto al precedente ruolo di “etichettatore di dati”, che si occupava della preparazione dei modelli di intelligenza artificiale. Questa nuova figura si concentra specificamente sui risultati generati dall’IA generativa.
Alcune aziende che utilizzano modelli linguistici di grandi dimensioni (LLM) utilizzano modelli di intelligenza artificiale separati per valutare l’idoneità dei risultati prodotti dall’IA generativa. Tuttavia, si ritiene che alla fine sia necessaria una revisione umana diretta. Pertanto, molte aziende stanno costituendo team dedicati di moderatori di contenuti AI per affrontare la sfida di esaminare un gran numero di documenti e immagini generati dall’IA generativa.
Questo processo è simile a come le piattaforme di social media esistenti monitorano i post degli utenti, ma rappresenta anche un’espansione del concetto di “feedback umano” utilizzato durante lo sviluppo dei modelli LLM.
Va notato che l’IA generativa è vulnerabile a stimoli che possono indurre allucinazioni e al “jailbreak”, che possono compromettere la credibilità dei modelli LLM e i profitti delle aziende. Pertanto, la moderazione dei contenuti continua a essere una necessità chiave.
A differenza degli ingegneri dei prompt, che spesso guadagnano stipendi elevati, i moderatori di contenuti basati sull’IA sembrano essere retribuiti a un livello più simile a quello degli etichettatori di dati. Nel caso di Prolipic, si prevede che i partecipanti possano guadagnare dai 8 ai 12 dollari all’ora.
“La domanda di occupazioni come i moderatori di contenuti sta crescendo per stabilire una base etica e di fiducia nell’intelligenza artificiale”, ha commentato Perim Bradley, CEO di Proliphic. “Dobbiamo completamente ripensare il trattamento equo ed etico delle nuove professioni legate all’IA, tra cui gli etichettatori di dati”.
A questo proposito, nel mese di agosto, è stato segnalato che i lavoratori keniani addetti all’etichettatura dei dati per “ChatGPT” stavano affrontando traumi dovuti alla costante esposizione a contenuti violenti ed estremi. Continuano a emergere problematiche legate alle condizioni di lavoro e alla bassa retribuzione in questo settore, specialmente nei paesi in via di sviluppo.