L’Italia ha appena fatto un passo significativo nel convulso dibattito sull’intelligenza artificiale: il passaggio di un bando del Ministero della Cultura – con un fondo di quasi 36 milioni di euro destinati a finanziare film, serie TV, documentari, animazioni e opere esordienti – sancisce ufficialmente un divieto chiaro: non saranno ammessi testi di sceneggiature redatti con l’ausilio di sistemi di intelligenza artificiale.
L’articolo 7 del bando recita senza ambiguità che “sono altresì esclusi i progetti di scrittura di sceneggiature realizzati utilizzando sistemi di intelligenza artificiale”, e addirittura i costi per licenze legate a strumenti AI sono esclusi dai costi ammissibili. È una scelta netta, basata su una visione secondo cui, “se vuoi creare, devi farlo con l’intelligenza e la creatività umane”; viceversa, se si utilizza anche solo un “aiutino” tecnologico, la creazione perde di genuinità, e – più ancora – non può pretendere di ottenere fondi pubblici .
Ma come è possibile distinguere un testo scritto completamente da un essere umano da uno “rifinito” con l’IA? È una domanda che il bando non chiarisce, e che si fa ancor più pressante nella pratica. Si potrebbero utilizzare software di rilevamento automatico per individuare testi generati da IA, ma quando l’IA è usata in modo evoluto e consapevole – per raffinare una bozza, correggere refusi, migliorare la formulazione – il confine tra “solo umano” e “aiutato dall’IA” si fa imperscrutabile. Di fatto, diventa impossibile individuare con certezza testi con un minimo utilizzo di AI come semplice “assistente”.
Il bando riflette inoltre una visione normativa e culturale ormai sempre più diffusa: l’IA è vista come qualcosa di apocalittico, una minaccia alla creatività, una delega di pensiero alla macchina, più che uno strumento. Ma è proprio questa visione – secondo molti osservatori – a rivelare un errore di fondo: le intelligenze artificiali non sono altro che strumenti, e come tali dovrebbero essere regolamentate, non demonizzate. Alberto Puliafito, su “Internazionale”, denuncia questa posizione come “miope” e culturalmente limitante, affermando: “l’idea di fondo… se vuoi creare, devi farlo con l’intelligenza e la creatività umane… se hai bisogno dell’aiutino, allora non stai davvero creando”.
Sul versante legislativo, intanto, il quadro rimane ancora nebuloso. Il disegno di legge sull’intelligenza artificiale, approvato dalla Camera dei Deputati alla fine di giugno 2025, è stato modificato rispetto al testo originale approvato al Senato, ma i suoi confini giuridici restano ancora fumosi e da definire con chiarezza.
Nel frattempo, si muove anche l’Europa con il suo AI Act – entrato in vigore in parte a febbraio 2025 – che vede un approccio differente: non vieta l’IA tout court, ma piuttosto ne classifica gli usi secondo quattro livelli di rischio: “inaccettabile”, “alto”, “limitato” e “minimo”. Tra i sistemi vietati (rischio inaccettabile) compaiono quelli di sorveglianza intrusiva, polizia predittiva, social scoring e manipolazione subliminale. Gli altri sistemi, a rischio alto o limitato, sono soggetti a regole rigorose ma non a divieto assoluto. Questo approccio consente di tutelare diritti e libertà fondamentali senza rinunciare all’innovazione.
Il rischio, se continuiamo su questa strada, è quello di soffocare la sperimentazione, l’innovazione creativa e l’uso consapevole dell’IA. Occorre quindi aprire un dialogo più maturo, dove strumenti tecnologici come l’IA siano regolamentati con equilibrio, senza cedere alla paura né alla retorica.