Gli informatici dell’Università di Chicago hanno sviluppato un software chiamato Nightshade che può alterare sottilmente le opere d’arte digitali. Queste modifiche sono invisibili agli occhi umani, ma possono “ingannare” i modelli di intelligenza artificiale (IA) utilizzati nell’apprendimento automatico. Ad esempio, dopo essere stato addestrato con immagini modificate da Nightshade, un modello IA potrebbe identificare erroneamente un gatto come un cane o una mucca come un’auto.

Nightshade sfrutta Pytorch, un framework popolare di apprendimento automatico, per apportare queste modifiche senza alterare visibilmente l’immagine. Il software è progettato per resistere a comuni manipolazioni delle immagini come il ritaglio e la compressione, mantenendo le sue modifiche efficaci.

Questo strumento è significativo nel dibattito sul data scraping e sull’utilizzo non autorizzato delle opere d’arte per addestrare modelli IA. Il data scraping, che consiste nell’estrazione di dati da siti web, è spesso utilizzato dai generatori di immagini IA, sollevando preoccupazioni tra gli artisti per l’uso non consensuale delle loro opere.

Nightshade mira ad aiutare gli artisti a proteggere le loro opere dall’uso non autorizzato, aumentando la difficoltà e i costi di formazione su queste opere senza il consenso dell’artista. In questo modo, si incoraggiano gli sviluppatori IA a negoziare accordi di licenza con gli artisti.

I ricercatori di Nightshade spiegano che mentre l’immagine appare normale agli esseri umani, per un modello IA potrebbe apparire molto diversa. Ad esempio, un’immagine di una mucca potrebbe essere percepita dal modello IA come una borsa di pelle.

Nightshade è stato creato dallo stesso team che ha sviluppato Glaze, un altro strumento anti-IA. Il loro obiettivo non è distruggere i modelli IA, ma promuovere un uso etico delle opere d’arte. Questo strumento rappresenta una risposta alla pratica del data scraping, spesso criticata per ignorare i diritti d’autore e le richieste di non utilizzo.

Grandi aziende come Google, Adobe, Shutterstock e Getty Images stanno adottando misure simili, indennizzando gli utenti dei loro generatori di immagini solo quando utilizzano immagini per le quali hanno i diritti legali.

I ricercatori di Nightshade affermano che lo scopo del software non è rompere i modelli IA, ma rendere più costoso l’addestramento su dati non autorizzati, incoraggiando così l’acquisto di licenze dalle parti creative.

Di Fantasy