Un mondo in cui l’IA non è più solo un assistente, ma diventa il vero autore dei lavori scientifici. Questo scenario, una volta relegato alla fantascienza, è oggi realtà: l’IA ha redatto e proposto un articolo scientifico completo, senza alcuna modifica da parte di umani, ottenendo l’approvazione di una peer review.
Al centro di questa rivoluzione c’è “The AI Scientist‑v2”, un sistema sviluppato dalla Sakana AI Lab che ha compiuto un’impresa mai realizzata prima: ha prodotto un manoscritto scientifico in autonomia, affrontato il rigoroso processo di peer review e ottenuto punteggi sufficienti per essere accettato in un workshop della conferenza ICLR – International Conference on Learning Representations.
Il sistema AI Scientist‑v2 opera in modo completamente autonomo: elabora l’ipotesi, progetta e conduce gli esperimenti, analizza i risultati, genera grafiche, scrive il paper grammatica e formattazione LaTeX incluse — persino le referenze e la bibliografia sono curate da lui.
Il risultato è qualcosa di mai visto finora: un paper redatto interamente da un’IA è passato una peer review standard, superando soglie di punteggio in linea con contributi umani. Uno dei tre manoscritti inviati ha ricevuto un voto medio di 6,33, sopra la soglia di accettazione del workshop ICLR.
Dati i rischi insiti in un’innovazione così potente, il progetto è stato condotto con estrema cautela. La ricerca ha ricevuto l’approvazione dell’IRB dell’Università della British Columbia e ha rispettato le linee guida del workshop ICLR, informando i revisori che alcuni contributi potevano essere generati dall’IA (anche se non ne specificavano quali). Inoltre, i paper accettati saranno ritirati dopo la review per evitare usi impropri o fraintendimenti.
Questo esperimento così controllato apre un dibattito urgente nella comunità scientifica: qual è il ruolo etico dell’IA nella ricerca? Come e quando dichiarare l’uso dell’IA nei lavori? Serve maggiore trasparenza, per evitare che il metodo peer review perda valore o diventi uno strumento manipolabile.
Il traguardo è straordinario, ma la discussione non finisce qui. Le potenzialità sono enormi: l’IA potrebbe accelerare la ricerca, liberare risorse umane per altre attività e affrontare questioni complesse più rapidamente. Tuttavia, restano evidenti limiti stilistici e cognitivi: l’IA tende a operare entro schemi predefiniti, manca di intuizione creativa, di contesto interdisciplinare profondo, e fatica a sfidare paradigmi consolidati con approcci davvero innovativi.
Parallelamente, l’IA può essere uno strumento potentissimo e utile per il supporto alla ricerca: individuare riferimenti, generare idee, sintetizzare testi, assistere nella scrittura, ma sempre in collaborazione con la mente umana.
Non è solo “The AI Scientist‑v2” a esplorare il territorio dell’intelligenza artificiale autonoma in ricerca. Sia Google che OpenAI stanno sviluppando sistemi “co‑scientist”, agenti progettati per aiutare i ricercatori umani proponendo ipotesi, analizzando dati, suggerendo esperimenti, pur mantenendo l’essere umano al centro del processo. Microsoft ha creato una piattaforma in cui agenti AI specializzati operano in rete per accelerare scoperte scientifiche reali, come ad esempio individuare nuovi materiali per raffreddamento, riducendo tempi da anni a poche settimane.