Nightshade: L’Arma Segreta per Artisti Contro l’IA

Dopo mesi di attesa, Nightshade, uno strumento software gratuito sviluppato dal Glaze Project dell’Università di Chicago sotto la guida del professor Ben Zhao, è finalmente a disposizione degli artisti. Questo innovativo strumento permette agli artisti di “avvelenare” i modelli di intelligenza artificiale che cercano di apprendere dai loro lavori, introducendo una rivoluzionaria tattica offensiva contro l’IA.

La sua operatività è sorprendentemente semplice: Nightshade utilizza il framework di apprendimento automatico PyTorch per analizzare un’immagine e successivamente applica un tag che altera sottilmente l’immagine stessa a livello di pixel. Il risultato? Gli algoritmi di intelligenza artificiale vedranno qualcosa di completamente diverso da ciò che è in realtà rappresentato nell’immagine.

Questo strumento segue le orme di Glaz, un precedente software sviluppato dallo stesso team, ma con una missione difensiva. Glaz è stato creato per modificare grafiche digitali su richiesta, confondendo gli algoritmi di addestramento dell’IA, rendendo l’opera visivamente diversa dal suo stile originale.

Nightshade, d’altro canto, è pensato per essere uno strumento offensivo. Se un modello di intelligenza artificiale dovesse essere addestrato su molte immagini alterate con Nightshade, potrebbe sviluppare una visione distorta degli oggetti, classificandoli erroneamente in futuro. Ad esempio, un’immagine di una mucca potrebbe apparire come una borsa su un campo verde per l’IA addestrata con Nightshade.

Per utilizzare Nightshade, gli artisti devono possedere un Mac con chip Apple integrati (M1, M2 o M3) o un PC con Windows 10 o 11. Il software può essere scaricato per entrambi i sistemi operativi, anche se il download può richiedere del tempo a causa dell’alta richiesta, con dimensioni dei file che variano tra 255 MB e 2,6 GB.

Gli utenti devono anche accettare il contratto di licenza con l’utente finale del team Glaze/Nightshade, che stabilisce l’uso del software su macchine controllate dall’utente e impedisce la modifica del codice sorgente o qualsiasi uso commerciale del software.

Nightshade v1.0 opera trasformando le immagini in “campioni di veleno”, rendendo difficile per gli algoritmi IA addestrarsi su di esse senza autorizzazione. Questo non si traduce necessariamente in una differenza visibile per l’occhio umano, ma crea una disparità significativa rispetto a ciò che un modello IA addestrato potrebbe interpretare.

Il team Glaze/Nightshade respinge l’accusa di attacco informatico, affermando che l’obiettivo principale di Nightshade è quello di rendere costosa l’addestramento su dati non autorizzati, spingendo gli sviluppatori di modelli IA a considerare accordi di licenza con gli artisti. In sostanza, cercano di far pagare agli sviluppatori il prezzo per l’utilizzo non autorizzato delle opere d’arte.

Il contesto di questa controversia risiede nel fatto che i generatori di immagini IA si basano spesso su dati raccolti da Internet, comprese opere d’arte originali pubblicate senza il consenso degli artisti. Questa pratica, conosciuta come “scraping dei dati”, è diventata una questione spinosa per artisti e creativi che vedono il loro lavoro utilizzato senza permesso per addestrare modelli IA commerciali.

Mentre i creatori di modelli IA difendono la pratica come legale secondo il concetto di “fair use”, l’obiettivo di Nightshade è di rendere costoso il data scraping, spingendo gli sviluppatori a cercare accordi di licenza con gli artisti. Tuttavia, c’è il rischio che Nightshade possa essere usato in modo improprio per alterare opere d’arte generate dall’IA o opere d’arte altrui, creando nuove sfide e controversie in questo campo in rapida evoluzione.

Di ihal