Il Wall Street Journal ha rivelato che OpenAI ha creato una tecnologia in grado di identificare con alta precisione i contenuti generati da ChatGPT. Tuttavia, la decisione di rendere pubblico questo strumento è stata posticipata a causa di timori riguardo a una possibile riduzione degli utenti di ChatGPT.
Circa un anno fa, OpenAI aveva già sviluppato una versione preliminare di questa tecnologia, ma il rilascio fu annullato a causa della sua bassa precisione. Recentemente, il sistema è stato notevolmente migliorato e ora può identificare con una precisione del 99,9% se un testo è stato scritto da ChatGPT, utilizzando una sorta di “filigrana invisibile” nel testo.
Nonostante la tecnologia sia pronta, OpenAI sta valutando se e quando renderla pubblica. Il dibattito interno si è intensificato soprattutto dopo che un sondaggio ha rivelato che un terzo degli utenti di ChatGPT non utilizzerebbe il servizio se fosse introdotta una tecnologia di rilevamento. Inoltre, c’è preoccupazione che la tecnologia potrebbe essere utilizzata per discriminare persone o gruppi e che potrebbe essere facilmente elusa con tecniche come la traduzione automatica.
Anche se le scuole sono favorevoli alla divulgazione della tecnologia per prevenire imbroglî, ci sono timori che la filigrana possa essere rimossa con metodi semplici, come l’uso di traduttori automatici. Recenti sondaggi mostrano che il 59% degli insegnanti delle scuole medie e superiori negli Stati Uniti sospetta che i loro studenti utilizzino l’IA per i compiti, un aumento significativo rispetto all’anno precedente.
Il CEO di OpenAI, Sam Altman, ha sostenuto il progetto ma non ha ancora deciso di renderlo pubblico.