Generato da Human o AI: OpenAI per filigranare il suo contenuto
Ogni volta che un’intelligenza artificiale genera testo, lo strumento creato da OpenAI incorpora un “segnale segreto impercettibile” che indica da dove proviene effettivamente il testo.
 
Oggi, l’intelligenza artificiale può scrivere poesie, saggi, ricerche e articoli scientifici e anche sceneggiature per film con una tale sublimità che spesso diventa difficile giudicare se un’intelligenza artificiale o un essere umano sia l’autore del contenuto.

OpenAI, la società che ha guidato la maggior parte dello sviluppo e dell’innovazione dell’IA negli ultimi tempi, ha una soluzione a questo problema: il watermarking.

Società di immagini stock come Getty Images spesso proteggono le loro immagini con filigrane. Una filigrana potrebbe essere un logo o un testo sovrapposto a un’immagine. Mentre è facile filigranare foto o contenuti video, come si fa a filigranare il testo generato dall’intelligenza artificiale? Scott Aaronson, ricercatore presso OpenAI, ha la risposta.

 
Watermarking dei contenuti generati dall’intelligenza artificiale
Uno dei progetti principali su cui Aaronson sta lavorando presso OpenAI è uno strumento per filigranare statisticamente gli output di un modello di testo come GPT.

“Vogliamo che sia molto più difficile prendere un output GPT e farlo passare come se provenisse da un essere umano”, ha rivelato durante una conferenza all’Università del Texas ad Austin. 

“Per GPT, ogni input e output è una stringa di token, che potrebbero essere parole ma anche segni di punteggiatura, parti di parole o altro: ci sono circa 100.000 token in totale. Fondamentalmente, GPT genera costantemente una distribuzione di probabilità sul token successivo da generare, in base alla stringa di token precedenti”, ha affermato in un post sul blog che documenta la sua lezione. 

Quindi, ogni volta che un’intelligenza artificiale genera un testo, lo strumento su cui sta lavorando Aaronson incorporerebbe un “segnale segreto impercettibile” che indicherebbe l’origine del testo.

“In realtà abbiamo un prototipo funzionante dello schema di filigrana, creato dall’ingegnere OpenAI Hendrik Kirchner.”

Mentre tu ed io potremmo ancora grattarci la testa sul fatto che il contenuto sia scritto da un’intelligenza artificiale o da un essere umano, OpenAI, che avrà accesso a una chiave crittografica, sarebbe in grado di scoprire una filigrana, ha rivelato Aaronson.

Perché è l’approccio giusto?
Alla fine di novembre 2022, OpenAI ha rilasciato ChatGPT , un chatbot che interagisce con gli umani utilizzando il linguaggio naturale. Questo nuovo modello di OpenAI utilizza un nuovo metodo di addestramento e si basa sull’architettura GPT-3.5.

Anche noi di Analytics India Magazine abbiamo provato la nostra mano con il nuovo strumento di OpenAI. Mentre non c’è dubbio che sia impressionante; in alcuni casi fornisce risposte di fatto errate o interamente inventate. 

All’inizio di questo mese, Stack Overflow , il popolare forum di programmazione, ha vietato tutte le risposte create da ChatGPT, citando un alto grado di imprecisione nelle risposte del bot.

Nonostante a volte sia impreciso, ChatGPT potrebbe anche essere utilizzato per scrivere saggi accattivanti, articoli accademici e persino copioni. Di recente, un utente di Twitter Ammaar Reshi ha postato di aver combinato ChatGPT, Midjourney e altri strumenti di intelligenza artificiale per creare un libro per bambini co-scritto da AI.


Diventa quindi importante per gli utenti finali come te e me sapere se il contenuto che stiamo consumando su Internet o sui siti di social media è effettivamente scritto da esseri umani e quali da un’IA, e consumare i contenuti generati dall’IA con un pizzico di sale . 

Aaronson ammette anche che la filigrana potrebbe essere utile per prevenire il plagio accademico. Potrebbe anche rivelarsi uno strumento contro la generazione di massa della propaganda. 

“Sai, spammare ogni blog con commenti apparentemente pertinenti a sostegno dell’invasione russa dell’Ucraina senza nemmeno un edificio pieno di troll a Mosca, o impersonare lo stile di scrittura di qualcuno per incriminarlo”, ha detto Aaronson.

OpenAI rilascerà anche GPT-4 il prossimo anno, il che dovrebbe spingere al limite i modelli di linguaggi di grandi dimensioni. Nel giro di pochi anni, la metà dei contenuti che leggiamo su Internet potrebbe essere scritta da un’intelligenza artificiale, rendendo quindi assolutamente essenziale uno strumento di watermarking.

L’accesso per tutti è imperativo 
A quanto pare, solo OpenAI avrebbe accesso alle chiavi crittografiche che potrebbero aiutare a determinare se il contenuto fa risalire le sue origini a un’intelligenza artificiale o a un essere umano. 

Tuttavia, è ugualmente, se non di più, imperativo che anche il pubblico in generale abbia accesso a queste chiavi per determinare da sé chi sia il creatore del contenuto con cui sta interagendo.

Tale chiave aiuterebbe insegnanti e professori a determinare se i saggi presentati dai loro studenti sono, in effetti, scritti da loro e non da un’intelligenza artificiale. Aiuterebbe anche a scansionare le e-mail alla ricerca di attacchi di phishing e i siti di social media alla ricerca di contenuti di propaganda.


Tuttavia, dare via gratuitamente la chiave, a cui solo OpenAI ha accesso, significherebbe che OpenAI perderebbe l’opportunità di trarne profitto. Inoltre, dare a tutti l’accesso alle chiavi significherebbe anche che le chiavi potrebbero essere utilizzate per aggirare o eliminare la filigrana, il che lascia OpenAI in imbarazzo.

Sebbene sia degno di nota il fatto che il watermarking sia tra le varie alternative che OpenAI sta esplorando per affrontare questo problema, dovremo aspettare e vedere se OpenAI o qualcun altro riuscirà a trovare una risposta che funzioni bene per tutti i soggetti coinvolti. 

Di ihal