In un mondo accademico dove i tempi si dilatano, le revisioni peer e le amministrazioni di sondaggi consumano settimane se non mesi, un’azienda chiamata Liner ha deciso di introdurre una svolta: due nuovi agenti AI che promettono di rendere questi processi più rapidi, più precisi e meno onerosi. L’idea è tanto semplice quanto ambiziosa: replicare via intelligenza artificiale due tappe fondamentali della ricerca — la peer review (revisione da parte di pari) e la simulazione dei sondaggi — per aiutare i ricercatori a sviluppare studi più solidi, correggere criticità prima del momento di invio all’editore o dell’esecuzione su larga scala, e, soprattutto, risparmiare tempo prezioso.
Il primo agente, il Peer Review Agent, è progettato per intervenire nella fase ultima della scrittura del paper, facendo da guida critica poco prima che il documento venga inviato a una rivista accademica. Invece di attendere settimane di attesa dalla redazione o dai revisori, chi utilizza questo strumento può ottenere un feedback in pochi minuti. Non si tratta di un giudizio superficiale: l’agente esamina l’originalità, analizza quanto il metodo sia valido, controlla la chiarezza logica del testo, coglie la coerenza dell’argomentazione, si concentra su citazioni, passaggi metodologici, potenziali implicazioni, e suggerisce dove il lavoro potrebbe essere migliorato o dove potrebbe essere approfondito. In esperimenti interni, Liner ha confrontato le valutazioni del suo agente con quelle di revisioni reali presentate a conferenze di rilievo come l’ICLR, e ha scoperto che c’è una corrispondenza superiore al 70%. In certi casi, il feedback prodotto dall’agente AI è risultato persino più dettagliato, offrendo suggerimenti più minuziosi su parti specifiche del testo.
Il secondo agente, il Survey Simulator, è rivolto ai ricercatori che basano parte delle loro ipotesi o studi su sondaggi. Prima di lanciare un sondaggio vero, con costi, tempi e risposta variabile, è possibile importare il questionario in forma PDF, definire alcune caratteristiche demografiche per i partecipanti virtuali — età, genere, regione, altri parametri che nel mondo reale contano — e far “simulare” le risposte. Ciò permette di testare il questionario: scoprire se ci sono domande ambigue, prevedere risposte inattese, verificare se le ipotesi reggono. Uno dei vantaggi più evidenti è economico: mentre nella pratica condurre un sondaggio con cento persone può richiedere tempo e budget, con il simulatore il costo è minimo e il feedback arriva in pochi minuti.
Queste due funzioni riflettono una consapevolezza crescente: che molti ostacoli in ricerca non dipendono solo dall’originalità dell’idea, ma da inefficienze pratiche. Rifinire la metodologia, scoprire problemi formali, correggere passi deboli prima che diventino ostacoli, è tanto importante quanto eseguire bene l’esperimento. Liner presenta il proprio obiettivo come alleviare le “strozzature” (i bottleneck) che rallentano l’avanzamento della ricerca, migliorare l’efficienza senza sacrificare la qualità.
Tuttavia, come ogni innovazione, queste soluzioni sollevano anche domande: fino a che punto un agente AI può effettivamente cogliere nuances complesse, sottigliezze concettuali, o divergenze interpretative che spesso emergono solo attraverso il dialogo tra umani esperti? Quanto affidabili sono quando si tratta di disciplina scientifica altamente specialistica? E in che modo la responsabilità per errori o omissioni — nel peer review simulato — viene attribuita?