Dopo quattro mesi di intensa fase di sviluppo e test, Amazon Web Services (AWS) ha ufficialmente lanciato Amazon Bedrock, la sua suite di modelli fondamentali. Sin dal suo debutto, questo strumento si è dimostrato cruciale nel soddisfare le complesse esigenze degli utenti aziendali.
Questa importante versione giunge dopo il lancio iniziale di Bedrock, dove ha rapidamente dimostrato il suo valore rispondendo alle richieste degli utenti aziendali. Inoltre, a luglio, AWS ha aggiornato la suite, introducendo modelli aggiuntivi, come i modelli Anthropic Claude 2, Stability AI SDXL 1.0 e il modello proprietario essenziale Titan Embeddings.
Una delle molte migliorie apportate da AWS in Amazon Bedrock riguarda la garanzia di conformità agli standard normativi, con particolare attenzione al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea. Vasi Philomin, Vice Presidente e Direttore Generale per l’Intelligenza Artificiale Generativa di Amazon, ha sottolineato questa conformità, evidenziando l’impegno dell’azienda nella tutela della privacy e della protezione dei dati.
Da quando è entrato nel campo dell’Intelligenza Artificiale Generativa, AWS si è affermato come un formidabile concorrente nei fornitori open source. AWS sta pianificando di integrare presto la prossima generazione LLM Llama 2 di Meta in Bedrock, insieme ai modelli di AI21 Labs, Anthropic, Cohere e Stability AI. Anche se AWS afferma di essere un pioniere nell’offrire Llama 2 (versioni da 13 e 70 miliardi di parametri) come servizio di Intelligenza Artificiale Generativa completamente gestito, altre piattaforme di Intelligenza Artificiale Generativa basate su cloud, come Vertex AI e Hugging Face di Google, forniscono questo servizio da tempo.
I modelli di AWS saranno accessibili tramite un’API gestita, ottimizzata per funzionare in modo efficace all’interno dell’infrastruttura AWS. Questo approccio rappresenta una sfida per Hugging Face, che è stato il partner fidato per questi modelli sin dal loro debutto. Anche se i dettagli sui prezzi di Llama 2 su Bedrock non sono ancora stati divulgati, ci si aspetta che siano competitivi con la struttura dei prezzi esistente di Hugging Face.
Quando i modelli furono rilasciati per la prima volta da Hugging Face, diversi utenti riscontrarono problemi nell’esecuzione del modello. Inoltre, all’inizio, hanno avuto difficoltà ad accedere ai modelli sulla piattaforma. Gli utenti sono stati accolti da Meta quasi immediatamente, mentre la loro approvazione è stata in sospeso su Hugging Face per settimane.
Nonostante AWS offrirà gli stessi modelli di Hugging Face, è improbabile che gli sviluppatori passino prontamente ad AWS. Hugging Face ha con successo creato un ambiente invitante, coinvolgente e confortevole per gli sviluppatori, mentre AWS è più attraente per gli utenti aziendali. È interessante notare che entrambe le società sono attivamente impegnate nella competizione, ma allo stesso tempo collaborano per democratizzare il campo dello sviluppo dell’Intelligenza Artificiale.
All’inizio di quest’anno, AWS e Hugging Face hanno annunciato una partnership strategica volta a offrire LLM e modelli di Intelligenza Artificiale Generativa sulla piattaforma ML di AWS. Grazie a questa collaborazione, la comunità di Hugging Face ora ha accesso ai servizi e all’infrastruttura di AWS ML, semplificando i processi di formazione, messa a punto e distribuzione dei modelli. La tempistica di questi progressi da parte di AWS è cruciale, considerando le dinamiche mutevoli del settore. Microsoft sta attirando l’attenzione grazie alla sua partnership esclusiva con OpenAI.
Anche se i modelli di Intelligenza Artificiale Generativa più potenti di OpenAI sono disponibili tramite Microsoft Azure, l’accesso a questi modelli rimane altamente limitato. Gli sviluppatori interessati a utilizzarli devono passare attraverso un rigoroso processo di richiesta, fornendo dettagliati casi d’uso da valutare. Inoltre, anche dopo aver ottenuto l’accesso, tutte le soluzioni che distribuiscono modelli Azure OpenAI devono essere sottoposte a una revisione del caso d’uso prima di essere approvate per l’uso in produzione. Questo processo complicato è in netto contrasto con ciò che offre AWS, rendendolo una scelta migliore per gli sviluppatori, e la collaborazione con Hugging Face semplifica ulteriormente il processo.
Data l’incremento dell’interesse e dell’attenzione attorno ai LLM, la partnership tra AWS e Hugging Face era praticamente inevitabile. I fornitori di servizi cloud stanno facendo sforzi concertati per fornire infrastrutture e servizi di piattaforma scalabili, offrendo agli sviluppatori opzioni per le loro esigenze specifiche.
AWS sta compiendo sforzi notevoli per attirare gli sviluppatori, lanciando un corso gratuito di autoapprendimento denominato “Amazon Bedrock: Getting Started” per presentare agli utenti le funzionalità e i vantaggi della piattaforma. Inoltre, la partnership di AWS con Hugging Face semplifica l’accesso ai LLM, rendendoli un’opzione più accessibile per gli sviluppatori rispetto alle rigide politiche e restrizioni di accesso di Microsoft Azure.