Recentemente, le riviste scientifiche “Nature” e “Science” hanno proibito l’uso di ChatGPT, un’applicazione di Intelligenza Artificiale (IA) che produce testi indistinguibili da quelli scritti dagli autori e sottoposti alle redazioni per la revisione anonima e la pubblicazione. Anche se è stato sviluppato un algoritmo antifrode per riconoscere i contributi di ChatGPT, la decisione delle riviste potrebbe avviare una competizione simile a quella tra gli antibiotici e i batteri resistenti, tra un veleno e il suo antidoto.
La controversia è stata scatenata da un articolo su “Nurse Education in Practice”, che aveva ChatGPT come autore. La rivista appartiene al colosso editoriale olandese Elsevier, che pubblica 2800 periodici scientifici e medici, tra cui “Nature”, “Cell” e “The Lancet”. Questo monopolio costringe i ricercatori a passare da Elsevier per tutta la loro carriera accademica.
Software (algoritmi) che generano testi giornalistici non sono una novità. Già oggi molti articoli di economia e di sport sono scritti da macchine e non da giornalisti. Negli Stati Uniti, ad esempio, il giornalismo robotico è utilizzato da anni per le partite di baseball e i commenti di borsa. Anche in Italia, sembra che il giornalismo robotico stia prendendo piede. Tuttavia, ChatGPT è diverso: appartiene alla famiglia dei Large Language Model, sviluppati per la traduzione automatica e poi estesi alla scrittura. ChatGPT è stato sviluppato dalla startup Open AI, fondata anche da Elon Musk. Grazie al suo algoritmo “transformer”, ChatGPT si concentra solo sui dati rilevanti per risolvere un determinato problema, ignorando gli altri, per ottenere risultati più accurati. Inoltre, è in grado di apprendere dall’utente e di acquisire competenze in corso d’opera.
Microsoft ha acquisito ChatGPT per potenziare il suo motore di ricerca Bing, messo alle corde dal monopolio di Google, il quale ha già pronta la sua risposta con la chatbot Bard. Al suo esordio, Bard ha risposto in modo inesatto a una domanda sul primo pianeta extrasolare fotografato, causando una perdita di valorizzazione di 100 miliardi di dollari per Google. Tuttavia, come ogni tecnologia, anche ChatGPT ha limiti, e il caporedattore di “Nature”, Magdalena Skipper, ha ammesso che con le giuste accortezze, ChatGPT potrebbe essere utile alla scienza, aiutando le persone non madrelingua inglesi a rendere il loro lavoro più scorrevole. Anche Andrew Davis di Elsevier ha sottolineato che gli strumenti di intelligenza artificiale possono migliorare la leggibilità e il linguaggio degli articoli di ricerca, ma non possono sostituire il compito degli autori di interpretare i dati e trarre conclusioni scientifiche.
Il problema è che alcuni ricercatori usano ChatGPT soprattutto per scrivere l’abstract dei loro articoli scientifici. L’abstract è un elemento cruciale nella valutazione dei contenuti, poiché se scritto in modo accattivante può influenzare il giudizio dei revisori. Inoltre, il tempo di attenzione dei lettori è molto limitato, e spesso si basano sull’abstract per decidere se proseguire nella lettura. I revisori delle riviste scientifiche ricevono un gran numero di pubblicazioni e spesso si affidano all’abstract per risparmiare tempo e concentrarsi solo sui contenuti più rilevanti.
In sintesi, l’uso di ChatGPT e di altre tecnologie basate sull’IA nel campo della scrittura scientifica può rappresentare un vantaggio per i ricercatori, soprattutto per coloro che non sono madrelingua inglesi. Tuttavia, è necessario prestare attenzione all’uso appropriato di tali strumenti, in modo da garantire che gli autori mantengano un ruolo centrale nell’interpretazione dei dati e nella trarre conclusioni scientifiche. La sfida consiste nel trovare un equilibrio tra l’uso dell’IA come strumento ausiliario e la necessità di preservare l’originalità e la creatività degli autori umani.