Immagine AI

Un creator giapponese sta attirando milioni di visualizzazioni sui social grazie a un utilizzo molto particolare dell’intelligenza artificiale applicata al cinema: entra digitalmente dentro scene iconiche di film e serie TV già esistenti, modifica personaggi, altera la narrazione e trasforma sequenze cinematografiche riconoscibili in versioni completamente surreali e destabilizzanti. I video, diventati rapidamente virali su Instagram, TikTok e nelle community dedicate alla sperimentazione AI, rappresentano uno degli esempi più avanzati della nuova generazione di contenuti audiovisivi basati su deepfake e manipolazione generativa delle immagini.

Il fenomeno è particolarmente interessante perché non si tratta di semplici parodie o montaggi video tradizionali. Il creator utilizza infatti modelli AI di face replacement, video inpainting e generazione neurale per inserirsi realisticamente all’interno delle scene originali, modificando direttamente la struttura narrativa dei film. Le sequenze non vengono soltanto imitate o ricreate: vengono letteralmente “riscritte dall’interno”, alterando movimenti dei personaggi, espressioni facciali, dialoghi e sviluppo dell’azione.

Uno dei contenuti più condivisi riguarda una reinterpretazione di una scena di “IT”, il celebre horror con Pennywise, in cui il creator entra direttamente nella sequenza originale trasformandone completamente il tono emotivo. L’effetto visivo genera una sensazione molto particolare perché il cervello dello spettatore continua a riconoscere il film originale, ma contemporaneamente percepisce anomalie narrative e visive che spezzano la continuità della scena.

I sistemi moderni di deepfake utilizzano reti neurali generative addestrate a riprodurre volti, espressioni facciali e movimenti corporei con livelli di realismo estremamente elevati. Attraverso modelli diffusion-based e architetture GAN evolute, il software riesce a ricostruire dettagli del volto umano coerenti con illuminazione, prospettiva e dinamica della scena originale.

Il processo normalmente inizia con il training del modello sul volto del creator. L’AI apprende struttura facciale, espressioni, movimenti degli occhi e sincronizzazione labiale attraverso enormi quantità di immagini e video. Successivamente il sistema sostituisce o integra digitalmente il volto all’interno della sequenza cinematografica originale mantenendo coerenza visiva frame-by-frame. Questo è uno dei passaggi più complessi, perché il modello deve garantire continuità temporale tra migliaia di fotogrammi consecutivi evitando artefatti visivi evidenti.

I sistemi più avanzati utilizzano inoltre tecniche di video inpainting neurale. L’intelligenza artificiale non si limita a sovrapporre un volto sopra l’immagine originale, ma ricostruisce intere porzioni della scena adattando ombre, riflessi, profondità e interazioni ambientali. È questo che permette ai nuovi deepfake di apparire molto più realistici rispetto alle prime versioni diffuse pochi anni fa.

Un elemento centrale nei video del creator giapponese è l’effetto di “intrusione narrativa”. L’AI viene usata non soltanto per imitare il cinema, ma per sabotarne deliberatamente la grammatica interna. Le scene vengono rese assurde, caotiche o improvvisamente illogiche proprio per produrre straniamento nello spettatore. Questo approccio rappresenta una nuova forma di remix audiovisivo AI-driven in cui l’obiettivo non è la fedeltà all’originale ma la sua destabilizzazione.

Il fenomeno mostra anche come l’intelligenza artificiale stia modificando profondamente il concetto stesso di contenuto audiovisivo. Fino a pochi anni fa il cinema era percepito come opera relativamente stabile e chiusa. Oggi le tecnologie generative permettono invece una continua manipolazione dei materiali esistenti, trasformando film, serie TV e contenuti iconici in ambienti modificabili dinamicamente dagli utenti.

Questa evoluzione è resa possibile soprattutto dalla democratizzazione degli strumenti AI. Software che fino a pochi anni fa richiedevano infrastrutture professionali e competenze estremamente avanzate sono diventati accessibili anche a creator indipendenti grazie ai modelli open source e alle piattaforme cloud di generazione video. Oggi molti sistemi di face swapping e video generation possono essere eseguiti direttamente su workstation consumer dotate di GPU moderne.

Il fenomeno si inserisce inoltre nella crescita rapidissima dell’AI cinema e della produzione audiovisiva generativa. Negli ultimi mesi stanno emergendo sempre più progetti basati su film creati parzialmente o interamente tramite intelligenza artificiale. Alcuni modelli sperimentali riescono già a costruire sequenze cinematografiche complete partendo da semplici prompt testuali, integrando sceneggiatura, immagini e audio sintetico in workflow completamente automatizzati.

Esiste però anche una dimensione molto delicata legata ai diritti d’autore e all’identità digitale. I video del creator giapponese utilizzano infatti scene cinematografiche protette e personaggi appartenenti a produzioni commerciali esistenti. L’intelligenza artificiale sta rendendo sempre più difficile distinguere tra remix creativo, satira digitale e manipolazione non autorizzata dei contenuti audiovisivi.

Il problema riguarda anche la riconoscibilità dei deepfake. Negli ultimi anni i sistemi generativi sono migliorati enormemente nella simulazione dei movimenti umani, rendendo sempre più complessa l’identificazione delle manipolazioni. Alcune ricerche accademiche mostrano come i moderni video AI stiano progressivamente eliminando molti dei difetti tipici che permettevano di riconoscere facilmente i deepfake più vecchi, come movimenti oculari innaturali o incoerenze facciali.

Di Fantasy