Dopo che il modello di linguaggio di grandi dimensioni “Rama” recentemente annunciato da Meta è trapelato, si è scoperto che c’è un boom nello sviluppo che lo utilizza. I tentativi di sviluppo per applicare questo modello a telefoni cellulari, laptop, Windows e persino piccoli computer come Raspberry Pi continuano.
Arstechnica ha riferito che le attività di sviluppo che lo utilizzano sono aumentate rapidamente dopo la fuga di Rama.
Meta ha annunciato lo sviluppo di questo modello il 24 del mese scorso, affermando che sarebbe stato reso disponibile solo a persone approvate per scopi di ricerca. Tuttavia, qualcuno ha fatto trapelare i pesi utilizzati da “Rama” tramite BitTorrent. Non è stato divulgato dal meta.
Il 10, uno sviluppatore di nome George Gerganoff ha creato e rilasciato il codice (llama.cpp) che può eseguire questo modello su un laptop Macintosh dotato di un chip M1. L’11, uno sviluppatore di nome Artem Andrinko è riuscito a eseguire “Rama” su Raspberry Pi, anche se lentamente.
Il 13, uno sviluppatore anonimo ha eseguito llama.cpp su un telefono Pixel 6. Lo stesso giorno, i ricercatori di Stanford hanno rilasciato “Alpaca 7B”, una versione ottimizzata di “Rama 7B”, simile a Da Vinci-003 di OpenAI, ma funzionante su hardware molto più leggero.
“Rama” è un modello di linguaggio di grandi dimensioni, ma ha 65 miliardi di parametri per il tipo di base, che è molto più piccolo di GPT-3, che ha 175 miliardi di parametri, e ha suscitato scalpore perché può essere eseguito senza un ad alte prestazioni unità di elaborazione grafica (GPU). Esistono già modelli di linguaggio di grandi dimensioni distribuiti come open source, ma richiedono GPU o spazio di archiviazione e non possono essere eseguiti dal pubblico in generale su dispositivi locali come i laptop.
D’altra parte, “Rama” viene eseguito su un dispositivo locale e le sue prestazioni sono classificate come GPT-3, che è il migliore tra i modelli linguistici. Di conseguenza, i tentativi di sviluppo attorno a “Lama” stanno formando un’inondazione, proprio come l’anno scorso, quando Stable Diffusion, un’intelligenza artificiale che genera immagini, è stato rilasciato come open source.
A questo proposito, Arstechnica ha valutato che fosse possibile per il grande pubblico eseguire modelli AI di classe GPT-3 su telefoni cellulari o laptop. Di conseguenza, è degno di nota se il “Rama” di Meta possa evolversi in un modello linguistico che chiunque può utilizzare gratuitamente.
Nonostante la fuga di “Rama”, Meta aderisce alla politica di consentire l’uso gratuito del modello solo a ricercatori limitati. Si può interpretare che il modello linguistico stia cercando di mantenere la posizione ufficiale di distribuirlo responsabilmente perché possono seguire effetti collaterali come uso improprio e abuso.