Immagine AI

Di fronte all’inesorabile aumento dei contributi scientifici, oggi gli studiosi e i ricercatori si trovano in una situazione nuova e inquietante: quella del boom, quasi incontrollato, di articoli di tipo “survey” (ossia articoli che ricapitolano e sintetizzano lo stato dell’arte) prodotti con l’ausilio di modelli generativi di intelligenza artificiale. Questo fenomeno è stato definito con efficacia come un attacco di tipo “DDoS” alla ricerca stessa — una metafora che richiama il Distributed Denial of Service: in pratica, troppi contributi buttati in massa, senza sufficiente filtraggio o qualità critica, rischiano di sfiancare il sistema della ricerca e di affogare il segnale nel rumore.

La riflessione parte proprio dal dato che il numero di sottomissioni quotidiane nelle categorie “Machine Learning”, “Computer Vision”, “Language Models” su piattaforme come arXiv supera ormai – in certi giorni – le centinaia o addirittura il migliaio, rendendo quasi impossibile per un ricercatore restare aggiornato in modo significativo. L’articolo dice che, per esempio, in un certo martedì sono state più di centinaia le submission nella sola categoria “Machine Learning”.

Alla radice di questa “invasione” di survey papers vi è l’avvento e la diffusione rapida dei grandi modelli linguistici (LLM) che hanno massicciamente abbassato la barriera di accesso alla produzione di testi accademici: ciò che prima richiedeva settimane o mesi di lavoro e riflessione può oggi essere generato in poche ore o poco più. Come si legge nel documento che fa da base all’articolo (intitolato “Stop DDoS Attacking the Research Community with AI-Generated Survey Papers”) gli autori sostengono che questo cambiamento tecnologico ha portato un’inflazione dei documenti che assomigliano superficialmente a survey, ma che in molti casi mancano di rigore, originalità, o di un’effettiva sintesi critica.

In altre parole, la comodità e velocità offerta dagli strumenti AI rischiano di compromettere la funzione tradizionale della survey: cioè fare ordine, individuare le lacune e proporre nuove traiettorie di ricerca, piuttosto che semplicemente aggregare risultati esistenti.

Le implicazioni di questa proliferazione sono molteplici. Innanzitutto, la qualità complessiva della letteratura di review rischia di scendere. Quando si ha una massa molto grande di contributi simili, bisognerebbe dedicarvi tempo per selezionarli, valutarli, leggerli — e quel tempo è proprio ciò che gli autori sottolineano come sempre più scarso. Unite.AI cita l’esperienza di uno studioso che ha ammesso: “per la prima volta in sette anni ho dovuto ammettere che non posso seguire tutti i nuovi articoli e contemporaneamente scrivere altro”.

In secondo luogo, la fiducia nella letteratura accademica può venir erosa. Se molte survey contengono citazioni errate, omettono riferimenti importanti, o ripetono tra loro senza aggiungere valore, il ricercatore si trova davanti a un mare confuso e poco affidabile. Il rischio è che novizi della materia o ricercatori interdisciplinari possano fare affidamento su review che non sono all’altezza, generando un effetto domino di errori. Il documento degli autori lo considera “un attacco alla comunità di ricerca”.

In terzo luogo, il tempo speso a filtrare, scartare, leggere in modo sommario – anziché dedicarsi a pensiero originale – sottrae risorse alla ricerca vera e propria. Se una parte significativa del lavoro ‘accademico’ consiste nel gestire il rumore delle review, invece che produrre nuovo sapere, la produttività intellettuale può risentirne.

Gli autori della posizione accademica citata propongono alcune linee di azione per arginare la ‘inondazione’ e restituire valore al genere della survey. Tra queste: maggiore trasparenza sull’uso dell’IA nella scrittura degli articoli — ossia dichiarare quando un modello linguistico ha contribuito alla generazione del testo —, un ritorno a una supervisione umana cura-critica più forte, e la revisione delle norme editoriali per distinguere chiaramente le survey “fatte bene” da quelle fatte in massa.

In aggiunta, viene proposta l’idea di “Dynamic Live Surveys” ossia repository o piattaforme che permettono versioni aggiornate e collaborative delle survey: invece di un singolo articolo statico che diventa rapidamente obsoleto, una “viva” e mantenuta comunitariamente potrebbe evitare duplicazioni e migliorare la qualità nel tempo.

Alla luce di quanto emerso, appare evidente che il mondo accademico vive oggi una fase di cambiamento: l’IA spinge verso una produzione più veloce, ma la velocità non può sostituire la profondità, la cura e la selezione critica delle fonti. Le survey hanno da sempre una funzione preziosa: far luce su ambiti complessi, indicare vie per ulteriori ricerche e orientare chi entra in un campo. Se questa funzione viene erosa, l’intero sistema di accumulazione del sapere rischia di perdere efficienza.

Per ciascuno di noi coinvolti nella ricerca — sia come autori, revisori, lettori — il richiamo è ad una maggiore consapevolezza. Dobbiamo chiedere non solo “quanti” articoli compaiono, ma “quali” di questi apportano un vero valore, “quanto” sono curati, “come” gestiscono le fonti, le citazioni, le lacune. Un po’ come in un ecosistema naturale: troppo “inquinamento” accademico può soffocare la vita.

Di Fantasy