EleutherAI annuncia il modello di linguaggio da 20 miliardi di parametri, GPT-NeoX-20B
La società ha affermato che è il più grande modello di linguaggio autoregressivo preaddestrato pubblicamente accessibile.
EleutherAI ha annunciato GPT-NeoX-20B , un modello da 20 miliardi di parametri addestrato utilizzando il framework GPT-NeoX su GPU di CoreWeave . La società ha affermato che è il più grande modello di Il modello aiuterà ad accelerare la ricerca verso l’ uso sicuro dei sistemi di IA .
I pesi del modello completo saranno scaricabili gratuitamente dal 9 febbraio, con una licenza permissiva Apache 2.0 di The Eye. Fino ad allora, puoi provare il modello usando CoreWeave e il servizio di inferenza di Anlatan, GooseAI .
“GPT-NeoX e GPT-NeoX-20B sono artefatti di ricerca e non consigliamo di implementarli in un ambiente di produzione senza un’attenta considerazione”, ha affermato EleutherAI.