La rinomata rivista di scienza, Nature, ha recentemente dichiarato che non accetterà più la presentazione di immagini o video prodotti tramite tecniche di intelligenza artificiale generativa. Questa decisione riveste un’importanza significativa nel contesto attuale, in cui la società è in piena rivoluzione delle IA e lotta per trovare una strada tra i rischi e le questioni legate al consenso, alla proprietà intellettuale, alla privacy e all’autenticità.
Con una storia che risale al 1869, Nature è una delle riviste scientifiche più citate e rispettate, pubblicando studi scientifici e tecnologici sottoposti a rigido controllo da parte dei pari. La decisione di Nature è stata presa dopo mesi di discussioni e consultazioni interne, in seguito alla diffusione di strumenti come ChatGPT e Midjourney nel dominio pubblico.
La rivista ha sottolineato che questa decisione tocca direttamente le sue linee guida etiche, che promuovono integrità e trasparenza nel lavoro pubblicato, incluse le citazioni delle fonti di dati nelle immagini. Nature esprime così la sua posizione sul divieto dell’uso dell’IA generativa nei contenuti visivi: “Perché proibiamo l’uso dell’IA generativa nei contenuti visivi? Essenzialmente, è una questione di integrità. Il processo di pubblicazione, sia in ambito scientifico che artistico, si basa su un impegno condiviso verso l’integrità. Ciò implica la trasparenza. Come ricercatori, revisori e editori, dobbiamo tutti conoscere le fonti dei dati e delle immagini, così da poter verificarne l’accuratezza e la veridicità. Gli attuali strumenti di intelligenza artificiale generativa non permettono l’accesso alle loro fonti per una verifica completa.”
Di conseguenza, qualsiasi individuo che collaborerà con Nature dovrà obbligatoriamente confermare che nessuno dei suoi lavori è stato creato utilizzando strumenti di intelligenza artificiale generativa.
Un altro aspetto cruciale per una rivista scientifica è l’attribuzione, ovvero riconoscere l’autorità dei lavori preesistenti utilizzati in un nuovo articolo. Dal momento che le opere prodotte da IA generative sono sintetizzate a partire da milioni di immagini utilizzate per l’allenamento del modello specifico, diventa praticamente impossibile attribuire correttamente. Questo conduce a ulteriori problemi, come quelli di consenso, autorizzazione, rispetto della proprietà intellettuale e autenticità, con Nature che cita esplicitamente i deepfake come fonti potenziali di disinformazione.
Nature, riconoscendo la sua posizione all’interno della comunità scientifica, ritiene di avere una responsabilità nell’interpretare le questioni legali ed etiche sollevate dall’IA o di attendere le risposte legislative alle sfide poste dall’intelligenza artificiale generativa.
La rivista continuerà a permettere l’uso di testo prodotto “con l’aiuto” di IA generative come ChatGPT, a condizione che vengano forniti i dovuti avvisi. L’utilizzo di questi strumenti dovrà sempre essere esplicitamente dichiarato e dovranno essere indicati i riferimenti per tutti i dati utilizzati. In ogni caso, nessuno strumento di intelligenza artificiale generativa sarà riconosciuto come autore di un articolo di ricerca.
Infine, Nature ha sottolineato che, considerando la rapidità con cui il campo sta avanzando, le politiche verranno riviste periodicamente e, se necessario, modificate di conseguenza.