La motivazione alla base di questa ricerca era immaginare un programma in grado di “leggere, comprendere e agire” sulla letteratura relativa all’IA.
 
La quantità di ricerca scientifica sull’IA è cresciuta in modo esponenziale negli ultimi anni, rendendo difficile per scienziati e professionisti tenere traccia dei progressi. I rapporti suggeriscono che il numero di documenti ML raddoppia ogni 23 mesi. Uno dei motivi alla base è che l’IA viene sfruttata in diverse discipline come matematica, statistica, fisica, medicina e biochimica. Ciò pone una sfida unica nell’organizzare idee diverse e nella comprensione di nuove connessioni scientifiche.

A tal fine, un gruppo di ricercatori guidato da Mario Krenn e altri del Max Planck Institute for the Science of Light (MPL), Erlangen, Germania, University of California, University of Toronto, ecc., hanno pubblicato insieme uno studio su previsione dei collegamenti di alta qualità in una rete di conoscenze in crescita esponenziale. Il documento è intitolato: “Prevedere il futuro dell’IA con l’IA”.

 
La motivazione alla base di questa ricerca era immaginare un programma in grado di “leggere, comprendere e agire” sulla letteratura relativa all’IA. Essere in grado di farlo aprirà le porte per prevedere e suggerire idee di ricerca che attraversano i confini tra domini. Il team ritiene che ciò migliorerà la produttività dei ricercatori di intelligenza artificiale a lungo termine, aprirà nuove strade di ricerca e guiderà il progresso nel campo.

Nuove idee di ricerca, il più delle volte, emergono creando nuove connessioni tra argomenti/domini apparentemente non correlati. Ciò ha motivato il team a formulare l’evoluzione della letteratura sull’IA come attività di modellazione della rete temporale. Il team ha creato una rete semantica in evoluzione che caratterizza il contenuto e l’evoluzione della letteratura sull’IA dal 1994. A tal fine, ha studiato una rete che conteneva 64.000 concetti, chiamati anche nodi, e 18 milioni di bordi che collegano due concetti. Il team ha utilizzato la rete semantica come input per dieci diversi metodi statistici e di apprendimento automatico. 

 
Uno dei compiti più fondamentali, la costruzione di una rete semantica, aiuta a estrarre conoscenza da essa e successivamente elaborare utilizzando algoritmi informatici. Inizialmente, il team ha considerato l’utilizzo di modelli linguistici di grandi dimensioni come GPT-3 e PaLM per la creazione di tale rete. Tuttavia, la sfida principale era che questi modelli lottavano ancora con il ragionamento, rendendo difficile identificare o suggerire nuove combinazioni di concetti.


Sono quindi passati a un approccio preso in prestito dalla biochimica, in cui le reti di conoscenza sono create da concetti coesistenti in articoli scientifici; le singole biomolecole rappresentano un nodo e due nodi sono collegati quando un documento menziona due biomolecole corrispondenti. Questo metodo è stato introdotto per la prima volta da Andrey Rzhetsky e dal team.

L’utilizzo di questo metodo per i progressi nell’IA ha consentito al team di acquisire la storia del campo. Dichiarazioni non banali sul comportamento collettivo degli scienziati sono state estratte utilizzando simulazioni di supercomputer e il processo è stato ripetuto per un ampio set di dati di documenti risultando in una rete che cattura contenuti fruibili. 

Il team ha sviluppato un nuovo benchmark chiamato Science4Cast su grafici del mondo reale. In seguito, hanno fornito dieci diversi metodi per risolvere il benchmark. Ciò ha aiutato a costruire uno strumento che suggerisca direzioni di ricerca significative nell’IA.

 

Al passo con la ricerca sull’IA
Il problema che il team ha deciso di risolvere è uno dei più discussi tra accademici e professionisti dell’IA. “I tempi sono leggermente nevrotici”, ha affermato Cliff Young, un ingegnere del software di Google in un discorso alla Linley Group Fall Processor Conference nel 2018. Ha aggiunto che l’IA ha raggiunto una fase esponenziale nello stesso momento in cui la legge di Moore si è fermata .

Lo stesso vale anche quattro anni dopo. In effetti, i progressi nella ricerca sull’IA potrebbero anche aver accelerato, data la rapida digitalizzazione avvenuta durante la pandemia globale. Basta prendere quest’anno per esempio. È iniziato con OpenAI che ha lanciato DALL.E 2 che ha lasciato il posto ad altri strumenti di generazione da testo a immagine, ciascuno migliore del precedente. Non è passato nemmeno un anno e abbiamo altri strumenti simili per il text-to-X : pensa al text-to-video, al text-to-3D e persino al text-to-audio .

Ci sono alcune sfide vecchie di decenni che l’IA è riuscita a risolvere. Chiamata la grande sfida di 50 anni, era un mistero per la comunità scientifica capire come si ripiegano le proteine. Ma con AlphaFold di DeepMind , gli scienziati potrebbero ottenere previsioni sulla struttura delle proteine ​​per quasi tutte le proteine ​​catalogate. Per apprezzare appieno l’innovazione, dobbiamo capire che nel 1969 il biologo americano Cyrus Levinthal ipotizzò che ci sarebbe voluto più tempo dell’età dell’universo conosciuto per enumerare tutte le possibili configurazioni di una tipica proteina mediante il calcolo della forza bruta.

Molto recentemente, DeepMind ha introdotto AlphaTensor , un sistema di intelligenza artificiale per scoprire algoritmi corretti per eseguire attività come la moltiplicazione di matrici. Questo risolve una domanda aperta di 50 anni in matematica sulla ricerca del modo più veloce per moltiplicare due matrici.

 
L’entità e il ritmo con cui si sta svolgendo la ricerca sull’IA possono essere travolgenti. Apri qualsiasi forum relativo all’intelligenza artificiale e all’apprendimento automatico e troverai “tenere il passo con i progressi dell’IA” come argomento principale di discussione. Si spera che la ricerca di Krenn et al. allenterà un po’ di pressione.

il documento completo si trova qui https://arxiv.org/pdf/2210.00881.pdf

DI SHRADDHA GOLED da Analyticsindiamag.com

Di ihal