EleutherAI annuncia il modello di linguaggio da 20 miliardi di parametri, GPT-NeoX-20B
La società ha affermato che è il più grande modello di linguaggio autoregressivo preaddestrato pubblicamente accessibile.
 
EleutherAI ha annunciato GPT-NeoX-20B , un modello da 20 miliardi di parametri addestrato utilizzando il framework GPT-NeoX su GPU di CoreWeave . La società ha affermato che è il più grande modello di  Il modello aiuterà ad accelerare la ricerca verso l’ uso sicuro dei sistemi di IA .

 

I pesi del modello completo saranno scaricabili gratuitamente dal 9 febbraio, con una licenza permissiva Apache 2.0 di The Eye. Fino ad allora, puoi provare il modello usando CoreWeave e il servizio di inferenza di Anlatan, GooseAI .

“GPT-NeoX e GPT-NeoX-20B sono artefatti di ricerca e non consigliamo di implementarli in un ambiente di produzione senza un’attenta considerazione”, ha affermato EleutherAI.
 

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi