Da quando ChatGPT è emerso quasi dodici mesi fa, l’intelligenza artificiale generativa è diventata predominante, ma con essa è cresciuta anche la resistenza.
Molti artisti, figure dello spettacolo e case discografiche hanno mosso azioni legali contro le aziende di IA, tra cui OpenAI, che ha prodotto ChatGPT. Il fulcro della questione? I dati utilizzati per addestrare queste IA. Senza sfruttare enormi quantità di contenuti, tra cui opere d’arte e immagini di artisti ignari, queste IA non potrebbero esistere. Mentre gli artisti erano in precedenza a favore dell’indicizzazione delle loro opere per la ricerca, molti ora la respingono perché le IA potrebbero produrre opere concorrenti.
Tuttavia, gli artisti hanno trovato modi tecnologici per contrastare queste IA. MIT Technology Review ha svelato un nuovo strumento in fase di sviluppo chiamato Nightshade. Questo software permette agli artisti di modificare le loro immagini in modo impercettibile per l’occhio umano, ma rendendole inutilizzabili per le IA che cercano di addestrarvisi.
Creato da un team dell’Università di Chicago guidato dal professor Ben Zhao, Nightshade può essere integrato in Glaze, un precedente strumento di protezione delle opere d’arte. Ma Nightshade va oltre: induce le IA a commettere errori di identificazione, come vedere un’immagine di un cane e interpretarla come un gatto.
Dopo l’addestramento con solo un certo numero di immagini “avvelenate”, le IA hanno iniziato a produrre rappresentazioni distorte, ad esempio generando un gatto quando gli veniva richiesto un cane. Questi risultati sorprendenti sono stati ottenuti testando Nightshade su Stable Diffusion, un modello open source.
Grazie alle peculiarità delle IA generative, che organizzano le informazioni in “embedding”, Nightshade ha anche ingannato Stable Diffusion facendogli produrre gatti quando gli venivano richiesti termini come “husky” o “lupo”.
Il punto di forza di Nightshade è la sua capacità di rendere quasi impossibile la rilevazione dei pixel alterati, sfidando gli sviluppatori di IA a individuare e rimuovere tali immagini. Se le IA vengono addestrate con queste immagini, potrebbero dover essere riaddestrate.
I ricercatori sperano che il loro lavoro protegga i diritti degli artisti contro le grandi società di IA, come evidenziato da un articolo del MIT Tech Review. Dopo la pubblicazione, il team di Zhao ha ulteriormente elaborato la missione di Nightshade su X (precedentemente noto come Twitter), sottolineando la grande disparità tra le aziende di IA e i creatori di contenuti.
Infine, il team ha inviato un documento su Nightshade per una valutazione alla conferenza sulla sicurezza informatica Usinex.