Negli ultimi tempi, IBM ha annunciato un nuovo sviluppo: il modello di parametri da 70 miliardi di Chat Llama 2, sviluppato da Meta, sarà ospitato nello studio watsonx.ai. L’accesso anticipato a questa risorsa sarà disponibile per clienti e partner selezionati.
Le imprese stanno ora abbracciando l’uso dell’Intelligenza Artificiale generativa come parte delle loro strategie aziendali. Tuttavia, per sfruttarne appieno il potenziale, necessitano di metodi semplificati per addestrare e costruire i propri modelli linguistici generativi (LLM) utilizzando anni di dati accumulati. Questa sfida ha portato vari fornitori di servizi cloud, tra cui AWS e Azure, ad offrire il loro supporto.
La partnership tra OpenAI e Microsoft ha prodotto GPT-4, mentre AWS ha adottato un approccio multi-LLM, offrendo una gamma di modelli come AI21, Cohere, Anthropic Claude 2 e Stability AI SDXL 1.0. Questi non sono gli unici attori nel panorama: nuovi fornitori di servizi stanno emergendo costantemente.
Le imprese stavano cercando una soluzione affidabile e sicura dai fornitori di servizi. Recentemente, gli appassionati di Intelligenza Artificiale hanno sviluppato metodi per addestrare e costruire modelli di Llama 2, ma rimane una preoccupazione chiave: questi approcci sono davvero affidabili per gestire dati sensibili?
Qualche giorno fa, Santiago, un esperto di Intelligenza Artificiale, ha twittato: “Ora puoi testare Llama 2 in meno di 10 minuti”. Questo annuncio introduceva Monster API, uno strumento innovativo che consente l’accesso a potenti modelli di Intelligenza Artificiale generativa come Falcon, Llama, Stable Diffusion, GPT J e altri ancora. Monster API offre questa possibilità senza richiedere agli utenti di preoccuparsi della gestione o della scalabilità dei modelli, gestendo facilmente un alto volume di richieste.
Tuttavia, iniziative nuove come questa comportano rischi significativi per le imprese consolidate, che desiderano garantire l’affidabilità e la scalabilità delle soluzioni che adottano.
IBM, al contrario, mette al centro la fiducia e la sicurezza nell’introduzione delle sue funzionalità di Intelligenza Artificiale generativa. Per esempio, quando gli utenti utilizzano il modello Llama 2 su watsonx.ai, possono attivare la funzione AI Guardrails. Questa funzione aiuta a filtrare automaticamente linguaggio offensivo sia dall’input che dall’output generato dal modello.
In un’intervista esclusiva con AIM, Geeta Gurnani, CTO di IBM Technology e leader tecnico delle vendite per IBM India e Asia meridionale, ha annunciato che IBM sta sviluppando un toolkit di governance AI, previsto per essere rilasciato entro la fine dell’anno. Questo toolkit mira a operazionalizzare la governance per mitigare rischi, tempi e costi associati a processi manuali, fornendo allo stesso tempo documentazione per risultati trasparenti e spiegabili. Gurnani ha affermato: “Il toolkit includerà anche meccanismi per garantire la privacy dei clienti, individuare proattivamente i pregiudizi e le deviazioni del modello e aiutare le organizzazioni a conformarsi ai propri standard etici”.
Llama 2 sta guadagnando popolarità tra le aziende, come dimostra la sua presenza su Amazon Sagemaker, Databricks, Watsonx.ai e persino su Azure di Microsoft, che supporta il proprio LLM GPT-4.
Inoltre, la partnership tra Meta e rinomate aziende, tra cui Amazon, Hugging Face, NVIDIA, Qualcomm, Zoom e Dropbox, insieme a leader accademici, evidenzia l’importanza del software open source.
Anche Andrej Karpathy di OpenAI, una figura di spicco nel campo dell’apprendimento profondo, ha adottato Llama 2, utilizzandolo per creare il progetto “Baby Llama” (noto come llama.c). In questo esperimento, ha esplorato l’esecuzione di grandi modelli linguistici su un singolo computer. Karpathy ha suggerito che OpenAI potrebbe in futuro rilasciare modelli open source.
Allo stesso modo, Santiago, esperto di Intelligenza Artificiale, ha espresso la sua fiducia nel potenziale successo di Llama 2. Questo modello, grazie alla sua natura open source, licenza commerciale, supporto efficiente per GPU e controllo completo del processo di utilizzo, ha tutti gli elementi per avere un impatto significativo nel settore. Santiago si è chiesto: “Quante aziende abbandoneranno soluzioni proprietarie e adotteranno Llama 2?”.
Mentre GPT-4 è accessibile esclusivamente tramite il servizio Microsoft Azure OpenAI, le aziende possono acquistare l’API GPT-4 fornita da OpenAI. Tuttavia, il fatto che GPT-4 sia chiuso e non consenta agli utenti di creare i propri modelli o sperimentarne il codice rappresenta un limite. Diversamente da Llama 2, che è gratuito per uso commerciale, l’API GPT-4 ha un costo. Le tariffe si basano su pacchetti di 1000 token, con un costo di $ 0,03 per l’input e $ 0,06 per l’output.
In scenari più complessi, il costo mensile di inferenza per un’API GPT-4 può variare da $ 250.000 a $ 300.000 (con un contesto di 16K), come riportato da AIM Ricerca. Pertanto, l’utilizzo consapevole dei token è fondamentale nell’integrazione dell’API ChatGPT, per gestire efficacemente i costi, proprio come si farebbe con un sito web.
Inizialmente, si è notata una tendenza verso Azure nel corso di questo trimestre per GPT-4, essendo disponibile esclusivamente lì, il che ha contribuito ad aumentare le entrate cloud di Azure. Tuttavia, il recente accordo tra Microsoft e Meta per osp