L’anno scorso, c’è stata una discussione tra professori e studenti nel mondo accademico riguardo al fatto che alcuni studenti potrebbero aver inviato compiti scritti da intelligenze artificiali anziché da loro stessi. I professori hanno cercato di utilizzare software come Turnitin e GPTZero per scoprire la verità, ma hanno riscontrato che questi strumenti spesso davano risultati inesatti, identificando erroneamente il lavoro degli studenti come generato da intelligenze artificiali.
Di conseguenza, i professori hanno iniziato a utilizzare test verbali più frequenti, ma il numero di studenti che si affidano alle intelligenze artificiali per scrivere i loro compiti e le tesi è rimasto alto. È diventato chiaro che i software di rilevamento basati su intelligenze artificiali non erano affidabili, poiché era difficile distinguere in modo certo la parte scritta dagli esseri umani da quella generata dalle intelligenze artificiali.
Nel frattempo, sono in corso ricerche per migliorare la precisione nel rilevare il testo prodotto dalle intelligenze artificiali, ma è una sfida continua in cui sia le intelligenze artificiali che i rilevatori cercano costantemente di superarsi a vicenda.
Un universitario di nome Vivek Verma, dell’Università della California, ha creato un rilevatore di testo chiamato “AI Ghostbuster” e ritiene che questi rilevatori possano essere utili per migliorare la scrittura delle intelligenze artificiali stesse, come i chatbot. Tuttavia, è ancora difficile essere sicuri dell’origine del testo.
Un utente ha sottolineato un caso in cui i rilevatori hanno erroneamente identificato testi scientifici scritti da esseri umani come generati da intelligenze artificiali a causa di similitudini linguistiche. Questo accade perché le intelligenze artificiali spesso vengono addestrate su dati che non riflettono completamente la complessità della scrittura umana, specialmente in campi specialistici.
Un’azienda chiamata OpenAI ha rilasciato un classificatore per il rilevamento di intelligenze artificiali, ma l’ha interrotto a causa dei bassi tassi di precisione. Anche se ci sono altri rilevatori più precisi come Copyleaks, le intelligenze artificiali di generazione di testo stanno diventando sempre più sofisticate e possono ingannare facilmente questi rilevatori.
Inoltre, i plugin per chatbot come Humanize, WriteEasy e altri possono essere usati per creare testi che sembrano scritti da esseri umani ma mancano spesso di creatività e originalità.
L’obiettivo futuro è riuscire a identificare con precisione quale parte di un testo è stata scritta da esseri umani e quale da intelligenze artificiali. Alcuni rilevatori, come GLTR, stanno cercando di fare progressi in questa direzione, ma c’è ancora molto lavoro da fare per affinare questa tecnologia. Vivek Verma sta lavorando su rilevatori finali che possano spiegare il motivo per cui classificano il contenuto in un certo modo, cercando così di rendere i rilevatori più affidabili.