Le ultime tecniche di intelligenza artificiale sono entrate in quasi tutte le aree della scienza, spingendoci a porre la domanda: c’è qualcosa che gli scienziati fanno che non può essere automatizzato?
Con gli strumenti ingegneristici della nuova era al timone della ricerca scientifica, l’intelligenza artificiale (AI) sta prendendo la scienza sotto le sue ali. Un rapporto dell’agenzia scientifica australiana, CSIRO, che analizza l’ impatto dell’IA sulla scoperta scientifica, ha rilevato che l’IA è implementata nel 98% dei campi scientifici e, a settembre 2022, circa il 5,7% di tutta la ricerca peer-reviewed in tutto il mondo era sull’IA.
“I modelli di intelligenza artificiale stanno iniziando ad accelerare rapidamente il progresso scientifico e nel 2022 sono stati utilizzati per favorire la fusione dell’idrogeno, migliorare l’efficienza della manipolazione della matrice e generare nuovi anticorpi”, si legge nel rapporto sull’indice AI 2023 di Stanford.
La scienza si sta automatizzando
Le ultime tecniche di intelligenza artificiale sono entrate in quasi tutte le aree della scienza, spingendoci a porre la domanda: c’è qualcosa che gli scienziati fanno che non può essere automatizzato? Una di queste tecniche, nota come modellazione generativa , “può aiutare a identificare la teoria più plausibile tra le spiegazioni concorrenti per i dati osservativi, basata esclusivamente sui dati”. E, cosa importante, “questo sarebbe senza alcuna conoscenza preprogrammata di quali processi fisici potrebbero essere all’opera nel sistema in esame”.
Le tue iscrizioni alla newsletter sono soggette all’Informativa sulla privacy e ai Termini e condizioni di AIM.
Mentre alcuni anni fa, i migliori tipi di sistemi di modellazione generativa erano le reti generali avversarie (GAN), le capacità delle architetture dei trasformatori hanno apparentemente preso il sopravvento. Ad esempio, AlphaFold e AlphaTensor di DeepMind, entrambi modelli di intelligenza artificiale all’avanguardia per la ricerca scientifica, utilizzano l’architettura del trasformatore.
L’architettura del trasformatore ha guadagnato popolarità nella modellazione generativa grazie alle sue prestazioni superiori in attività come l’elaborazione del linguaggio naturale e il riconoscimento delle immagini. Ciò è dovuto principalmente alla sua capacità di acquisire dipendenze a lungo raggio, che gli consente di elaborare e generare in modo efficace sequenze complesse di dati.
A differenza dei GAN, che possono essere soggetti a instabilità durante l’addestramento, i modelli di trasformatore sono più stabili e coerenti nel loro output. Inoltre, quest’ultimo è anche altamente adattabile e può essere messo a punto con facilità per compiti specifici.
Agenti scientifici
Come risultato dei progressi nelle tecniche di intelligenza artificiale, abbiamo decifrato il codice sul problema del ripiegamento delle proteine, che ora viene utilizzato per creare vaccini contro la malaria, affrontare la resistenza agli antibiotici, ridurre i rifiuti di plastica e spingere la scoperta di farmaci a nuovi livelli. Inoltre, abbiamo infranto un record di 50 anni nella moltiplicazione di matrici, offrendoci applicazioni AI velocissime su hardware esistente come mai prima d’ora. E non è tutto, abbiamo anche sviluppato un’interfaccia cervello-computer in grado di tradurre in testo le azioni tentate di parlare, dando alle persone con paralisi il potenziale per comunicare in modo efficace.
I ricercatori ritengono che finora abbiamo raggiunto solo la punta dell’iceberg, considerando le vaste possibilità offerte dai modelli di intelligenza artificiale.
Nel frattempo, modelli come Auto-GPT che sono open source, modelli di autoapprendimento e possono scrivere il proprio codice, eliminare bug e ridurre al minimo i tempi di inattività sono qui ora. Siamo sulla soglia della creazione di molti agenti scientifici autonomi in grado di percepire, pensare e agire verso obiettivi definiti nei suggerimenti inglesi.
Cosa c’è che non va?
L’influenza dell’IA non si limita solo al laboratorio; sta anche facendo passi da gigante nella comunicazione. Con strumenti come ACCoRD , i comunicatori scientifici sono in grado di scegliere un significato per un concetto da una serie diversificata di descrizioni uniche, eliminando la fatica di prendere quella migliore descrizione data a tutte le terminologie scientifiche.
Ciò significa che attualmente dovremmo essere nell’era della scienza dirompente, giusto? I dati suggeriscono il contrario. Uno studio pubblicato su Nature all’inizio di quest’anno ha rilevato che “documenti, brevetti e persino domande di sovvenzione sono diventati meno innovativi rispetto al lavoro precedente e hanno meno probabilità di collegare aree di conoscenza disparate, entrambe precursori dell’innovazione”.
Il calo della produttività della ricerca si osserva soprattutto in settori come semiconduttori, prodotti farmaceutici e altri. E questo mentre nel complesso c’è un sentimento positivo nei confronti dell’IA. Serve solo a vedere se la tecnologia ha davvero fatto la differenza per la crescita della ricerca scientifica.
AI: il miglior scienziato?
Ma, prima di saltare sul carrozzone “IA per la scienza”, ci sono anche enormi sfide per cui essere pronti. Conosciuto come “crisi di riproducibilità”, il problema è venuto alla luce quando Kapoor e Narayanan hanno analizzato 20 revisioni in 17 campi di ricerca e hanno contato 329 documenti di ricerca i cui risultati non potevano essere replicati completamente a causa di problemi nell’applicazione dell’apprendimento automatico. Cioè, era impossibile verificare questi risultati, anche duplicando l’esperimento nelle stesse condizioni con lo stesso set di dati.
Questo sta accadendo mentre la ricerca scientifica sta già affrontando il caldo per non essere riproducibile . Quindi, potrebbe essere il caso che l’IA lo stia solo peggiorando. A causa di qualcosa chiamato “fuga di dati”, mentre il modello funzionerà bene durante la fase di addestramento e test, fallirà se applicato ad applicazioni del mondo reale con un set di dati completamente nuovo.
La questione della riproducibilità si aggrava anche per l’assenza di informazioni sufficienti sul codice utilizzato per generare i risultati. Oppure il problema si verifica a causa della distorsione nei dati che vengono inseriti in questi sistemi di intelligenza artificiale, ad esempio se nei dati viene presa in considerazione solo una fascia di età specifica o se una particolare razza o genere è sovrarappresentato. Quindi, per quanto l’intelligenza artificiale fornisca la possibilità di dare impulso alla ricerca, porta anche una serie di problemi che sono completamente contrari all’ethos “oggettivo” e “verificabile” della scienza.