Recentemente YouTube si è trovato al centro di un acceso dibattito. La piattaforma, infatti, ha applicato algoritmi di intelligenza artificiale per migliorare la qualità visiva di certi video – tutto senza informare i creatori né chiedere il loro consenso. Un gesto che, benché presentato da YouTube come semplice sperimentazione tecnica, ha sollevato critiche sulle questioni di trasparenza, controllo e fiducia nel rapporto tra piattaforma e creator.
Il problema è emerso quando alcuni noti creators hanno notato cambiamenti sottili ma inquietanti nei propri contenuti: “Il mio volto sembrava innaturalmente sfocato, quasi in “make-up”, e le pieghe della camicia apparivano innaturali” ha raccontato Rick Beato, artista musicale con milioni di iscritti. Un altro creatore, Let Shulder, ha evidenziato come un eccesso di nitidezza potesse alterare l’immagine del suo contenuto, sfiorando una sorta di “effetto deepfake”.
YouTube ha riconosciuto l’intervento, spiegando che si trattava di un esperimento volto a ridurre il rumore visivo nei video brevi (Shorts) tramite strumenti di machine learning, e non di generative AI o upscaling sofisticato.
La risposta di YouTube, però, non ha placato le critiche. Su Reddit è esploso un acceso dibattito: “Che si tratti di machine learning tradizionale o generative AI, modificare contenuti senza il permesso dell’autore resta una pratica discutibile, persino illegale. Sembra ingannevole e scorretto.” Anche esperti nel campo della privacy e dei media digitali hanno espresso preoccupazione: “Chiamarlo ‘machine learning’ sembra un tentativo di camuffare l’uso dell’AI, una tattica per ridurre la percezione del rischio. Quando una piattaforma modifica un contenuto senza autorizzazione, la fiducia nel sistema digitale viene erosa.”
Al momento, YouTube non ha chiarito se intenda in futuro offrire ai creator la possibilità di accettare o escludere deliberatamente tali interventi sui loro video.