Sfruttare la potenza di GPT-3 nella ricerca scientifica 

Dal suo lancio nel 2020, Generative Pre-addestrato Transformer 3 (GPT-3) ha fatto parlare di sé. Il potente modello di linguaggio di grandi dimensioni (LLM) addestrato su 45 TB di dati di testo è stato utilizzato per sviluppare nuovi strumenti in tutto lo spettro, dall’ottenere suggerimenti sul codice e creare siti Web all’esecuzione di ricerche basate sul significato. La parte migliore? Devi solo inserire i comandi in un linguaggio semplice.

L’emergere di GPT-3 ha anche annunciato una nuova era nella ricerca scientifica. Poiché il LLM può elaborare grandi quantità di informazioni in modo rapido e accurato, ha aperto una vasta gamma di possibilità per i ricercatori: generare ipotesi, estrarre informazioni da grandi set di dati, rilevare modelli, semplificare le ricerche bibliografiche, aiutare il processo di apprendimento e molto altro.In questo articolo, daremo un’occhiata a come sta rimodellando la ricerca scientifica.

I numeri
Negli ultimi anni, l’uso dell’intelligenza artificiale nella ricerca è cresciuto a un ritmo incredibile. Un rapporto del CSIRO suggerisce che quasi il 98% dei campi scientifici ha implementato l’IA in qualche modo. Vuoi sapere chi sono i migliori adottanti? Tra i primi cinque ci sono matematica, scienze decisionali, ingegneria, neuroscienze e assistenza sanitaria. Inoltre, circa il 5,7% di tutti i documenti di ricerca sottoposti a revisione paritaria pubblicati in tutto il mondo si sono concentrati sull’intelligenza artificiale.

 

Per quanto riguarda GPT-3, ci sono più di 300 applicazioni in tutto il mondo che utilizzano il modello. Lo usano per la ricerca, la conversazione, il completamento del testo e altro ancora. Il creatore di GPT-3, OpenAI, afferma che il modello genera oltre 4,5 miliardi di parole al giorno.

Come GPT-3 viene utilizzato nella ricerca
È questo il futuro della ricerca scientifica? Si potrebbe dire che è un po’ troppo presto per suggerirlo. Ma una cosa è certa: la nuova gamma di applicazioni basate sull’intelligenza artificiale sta aiutando molti ricercatori a collegare i punti più velocemente. E GPT-3 ha una mano enorme in questo. Laboratori e aziende di tutto il mondo utilizzano l’API aperta di GPT-3 per creare sistemi che non solo consentono l’automazione di attività banali, ma forniscono anche soluzioni intelligenti a problemi complessi. Diamo un’occhiata ad alcuni di loro.

Nelle scienze della vita, GPT-3 viene utilizzato per raccogliere informazioni sul comportamento del paziente per trattamenti più efficaci e più sicuri. Ad esempio, InVibe , una società di ricerca vocale, utilizza GPT-3 per comprendere il linguaggio e il comportamento dei pazienti. Le aziende farmaceutiche utilizzano quindi queste informazioni per prendere decisioni informate sullo sviluppo dei farmaci.

LLM come GPT-3 sono stati utilizzati anche nella programmazione genetica. Un documento pubblicato di recente, ” Evolution Through Large Models “, introduce come gli LLM possono essere utilizzati per automatizzare il processo degli operatori di mutazione nella programmazione genetica.

Risolvere problemi matematici è ancora un lavoro in corso. Un team di ricercatori del MIT ha scoperto che è possibile ottenere GPT-3 per risolvere problemi matematici con l’apprendimento in pochi colpi e il suggerimento della catena di pensieri. Lo studio ha anche rivelato che per risolvere problemi di matematica a livello universitario in modo coerente, sono necessari modelli pre-addestrati sul testo e perfezionati sul codice. Il Codex di OpenAI ha avuto un tasso di successo migliore in questo senso.

Ora, se vuoi imparare equazioni complesse e tabelle di dati trovate nei documenti di ricerca, SciSpace Copilot può aiutarti. È un assistente di ricerca AI che ti aiuta a leggere e comprendere meglio i documenti. Fornisce spiegazioni per la matematica e blocchi di testo mentre leggi. Inoltre, puoi porre domande di follow-up per ottenere immediatamente una spiegazione più dettagliata.

Un’altra applicazione che sfrutta GPT-3 per semplificare i flussi di lavoro di ricerca è Elicit . Il laboratorio di ricerca senza scopo di lucro Ought l’ha sviluppato per aiutare i ricercatori a trovare articoli pertinenti senza corrispondenze perfette di parole chiave e ottenere risultati riassuntivi da essi.

Il sistema opera in uno spazio simile. È una risorsa di dati aperti che puoi utilizzare per comprendere la relazione tra due cose qualsiasi nel mondo. Raccoglie queste informazioni da documenti, set di dati e modelli sottoposti a revisione paritaria.

La maggior parte dei ricercatori deve scrivere molto ogni giorno. E-mail, proposte, presentazioni, rapporti, lo chiami. I generatori di contenuti basati su GPT-3 come Jasper e gli editor di testo come Lex possono aiutare a togliersi il carico dalle spalle. Dai suggerimenti di base in linguaggio naturale , questi strumenti ti aiuteranno a generare testi, completare automaticamente la tua scrittura e articolare i tuoi pensieri più velocemente. Il più delle volte, sarà accurato e con una buona grammatica.

E la codifica? Bene, ci sono strumenti basati su GPT-3 che generano codice. Epsilon Code , ad esempio, è un assistente basato sull’intelligenza artificiale che elabora le tue descrizioni in testo semplice per generare codice Python. Ma le applicazioni basate su Codex come quella di GitHub sono le migliori per questo scopo.

Alla fine della giornata, GPT-3 e altri modelli linguistici sono strumenti eccellenti che possono essere utilizzati in vari modi per migliorare la ricerca scientifica.

Pensieri di separazione su GPT-3 e LLM
Come puoi vedere, il potenziale di GPT-3 e degli altri LLM per la comunità della ricerca scientifica è enorme. Ma non si possono ignorare le preoccupazioni associate a questi strumenti: potenziale aumento del plagio e altre questioni etiche, replica dei pregiudizi umani, propagazione della disinformazione e omissione di dati critici, tra le altre cose. La comunità di ricerca e le altre principali parti interessate devono collaborare per garantire che i sistemi di ricerca basati sull’intelligenza artificiale siano costruiti e utilizzati in modo responsabile. 

In definitiva, GPT-3 è uno strumento utile. Ma non puoi aspettarti che sia sempre corretto. È ancora nelle sue prime fasi di evoluzione. I modelli Transformer, che costituiscono la base degli LLM, sono stati introdotti solo nel 2017. La buona notizia è che i primi segnali sono positivi. Lo sviluppo sta avvenendo rapidamente e possiamo aspettarci che gli LLM migliorino e siano più precisi.

Per ora, potresti ancora ricevere previsioni o consigli errati. Questo è normale e qualcosa da tenere a mente quando si utilizza GPT-3. Per essere al sicuro, assicurati sempre di ricontrollare tutto ciò che viene prodotto da GPT-3 prima di fare affidamento su di esso.

Ekta Dang è CEO e fondatore di U First Capital .

 

Di ihal