La demo web del modello di intelligenza artificiale generativa Alpaca della Stanford University è stata interrotta dopo pochi giorni a causa di problemi di sicurezza e costi elevati. Alpaca si basa su LLaMA di Meta, un modello di intelligenza artificiale generativa che ha avuto problemi con i suoi chatbot che si chiudevano subito dopo il loro rilascio. LLaMA è stato creato per incoraggiare la ricerca LLM e risolvere problemi di generazione di testo sbagliato o inappropriato. Esistono quattro diversi modelli LLaMA, tra cui LLaMA-13B con 13 miliardi di parametri che Meta ha affermato potrebbe superare il GPT-3 di OpenAI nella maggior parte delle metriche e richiedere solo una singola GPU Nvidia Tesla V100.
Alpaca è stato costruito in parte per identificare e catalogare testi tossici e altri problemi con LLaMA. Tuttavia, nonostante il suo costo relativamente basso, Alpaca non è risultato economico da ospitare, e la demo è stata interrotta a causa delle inadeguatezze dei filtri per i contenuti. La decisione di interrompere la demo ricorda l’ultima volta che Meta ha provato a condividere una demo di un progetto di intelligenza artificiale generativa, la demo del Galactica Large Language Model, che è durata solo tre giorni a novembre.
Meta ha creato LLaMA per incoraggiare la ricerca LLM, ma sembra che qualsiasi ricerca sull’IA generativa con un volto pubblico possa essere un problema a causa della possibilità di generare informazioni false, stereotipi sociali e linguaggio tossico. La decisione di condividere LLaMA solo con ricercatori accademici potrebbe essere stata in parte per evitare questi problemi, ma comunque Meta ha deciso di interrompere la demo di Alpaca a causa dei costi di hosting e delle inadeguatezze dei filtri per i contenuti.
Anche se Alpaca è stato costruito per identificare e catalogare testi tossici e problemi con LLaMA, sembra che la sua demo non sia stata in grado di soddisfare gli standard di sicurezza e costi. Tuttavia, l’obiettivo originale di rilasciare una demo era quello di rendere la ricerca più accessibile, e Stanford crede di aver raggiunto in gran parte questo obiettivo. Nonostante i problemi riscontrati, la ricerca LLM continuerà sicuramente ad avanzare e a evolversi, con l’obiettivo di affrontare le sfide inerenti all’IA generativa e migliorare la sua sicurezza e il suo impatto sociale. In ogni caso, la decisione di interrompere la demo di Alpaca dimostra la necessità di prestare attenzione ai problemi di sicurezza e costi associati all’uso di modelli di intelligenza artificiale generativa in modo responsabile e consapevole.