Ieri, YouTube, la piattaforma di condivisione video, ha pubblicato un comunicato in cui ha dichiarato: “Tutti i contenuti caricati su YouTube sono soggetti alle nostre Linee guida della community, indipendentemente dal loro metodo di creazione. Tuttavia, riconosciamo che l’intelligenza artificiale presenta nuovi rischi e richiede nuovi approcci. Siamo nelle fasi iniziali del nostro lavoro e continueremo a evolvere la nostra approccio man mano che acquisiremo maggiore esperienza”.
YouTube ha annunciato che nei prossimi mesi introdurrà degli aggiornamenti per informare gli spettatori quando il contenuto che stanno visualizzando è stato generato sinteticamente. “In particolare, chiederemo ai creatori di dichiarare quando hanno creato contenuti alterati o sintetici in modo realistico, inclusa l’impiego di strumenti di intelligenza artificiale”. Questo significa che la responsabilità ricade sui creatori di contenuti anziché sulla piattaforma stessa.
Inoltre, l’azienda si impegna a rimuovere i contenuti generati dall’intelligenza artificiale che impersonano un individuo o riproducono la voce o lo stile di un artista tramite il processo di richiesta di privacy.
A marzo, YouTube ha rivisto la sua politica pubblicitaria consentendo ai creatori di monetizzare contenuti con una moderata quantità di volgarità. Questa modifica è stata una risposta alle lamentele dei creatori riguardo alla politica troppo restrittiva di YouTube sul linguaggio volgare, che limitava la possibilità di monetizzare annunci pubblicitari.
È interessante notare che solo pochi mesi prima, nel novembre 2022, YouTube aveva aggiornato le sue linee guida per gli inserzionisti, vietando espressamente l’uso di parole offensive nei primi sette secondi di un video. I video che iniziavano con linguaggio offensivo, come la parola “F”, potevano non essere idonei per guadagni pubblicitari. Anche i video con contenuti moderatamente volgari dovevano affrontare restrizioni sulla monetizzazione.