Nell’ambito della creazione di imponenti modelli di linguaggio, aziende di rilievo come Google, Microsoft e Meta hanno deciso di lanciarsi nella competizione con progetti come PaLM 2, GPT-4 e Llama 2. Tuttavia, Amazon ha intrapreso una strada diversa. Invece di unirsi a questa corsa, Amazon Web Services (AWS), la piattaforma di servizi cloud di Amazon, ha preso una direzione sorprendente, sfruttando la sua considerevole quota di mercato del 34% nei servizi cloud, e così è nato Amazon Bedrock.

L’approccio ha portato alla creazione di Amazon Bedrock, un’iniziativa che sfrutta l’esperienza di AWS nel fornire servizi cloud a partire da startup come FM e Amazon Titan attraverso Bedrock. Questa soluzione, lanciata quattro mesi fa, mette a disposizione un’API che permette di sviluppare app generative basate sull’intelligenza artificiale, sfruttando modelli di base provenienti da esperti del settore come Anthropic, Stability AI e Cohere, tra gli altri.

Olivier Klein, Chief Technologist, APAC di AWS, ha spiegato in un’intervista esclusiva che l’obiettivo è rendere l’accesso all’IA generativa e alle funzionalità FM più democratico, rivolgendosi a una vasta gamma di clienti e settori aziendali. Piuttosto che focalizzarsi su un singolo modello FM, AWS punta a offrire diversi modelli specializzati per scopi differenti.

Klein ha sottolineato che AWS è ancora nelle prime fasi dell’esplorazione del potenziale dell’IA generativa e ha indicato come servizi come Amazon Bedrock stiano contribuendo a rendere l’IA generativa più accessibile a un pubblico più ampio.

Numerose aziende, tra cui Bridgewater Associates, Coda, Lonely Planet, Ryanair, Showpad e Travellers, stanno già attivamente utilizzando Amazon Bedrock per sviluppare applicazioni basate sull’IA generativa. Ad esempio, Coda AI, un assistente per l’ambiente lavorativo, è ampiamente impiegato per agevolare compiti aziendali e incrementare l’efficienza.

L’attenzione di Amazon sull’ascolto e la soddisfazione del cliente influisce notevolmente sull’IA generativa. Klein ha sottolineato che i dati costituiscono il principale elemento di differenziazione nell’IA generativa, consentendo di distinguere il proprio prodotto da quelli dei concorrenti. Pertanto, incoraggia i clienti a adottare strategie di gestione dei dati, come l’utilizzo di data lake, per sfruttare appieno l’IA generativa.

Amazon non solo sta facilitando l’accesso all’IA generativa, ma offre anche soluzioni di storage sicuro come Amazon Simple Storage Service, integrato con Amazon Bedrock e servizi di risposta AI.

Mentre AWS investe nella creazione di soluzioni di IA generativa, il CEO di Amazon, Andy Jassy, aveva precedentemente annunciato lo sviluppo di un nuovo modello LLM per migliorare Alexa, ma da allora non sono stati rilasciati ulteriori dettagli.

Nel panorama in continua evoluzione dell’apprendimento automatico, AWS ritiene che diversi modelli abbiano scopi distinti e che nessun singolo modello possa coprire tutti gli ambiti. Per esempio, AI21 Jurassic1 potrebbe essere adatto al riepilogo di rapporti finanziari, mentre Generate Model-Medium di Cohere si presta bene per suggerimenti di completamento automatico nel commercio online.

Amazon sta anche contribuendo allo sviluppo di app di IA generativa che possono fornire risposte in tempo reale da fonti di conoscenza private e gestire varie attività, come nel servizio clienti dove l’IA sicura accede ai dati aziendali per ottimizzare le attività.

Inoltre, AWS ha lanciato l’AWS Generative AI Innovation Center, un investimento di 100 milioni di dollari per collaborare con esperti di IA e ML e aiutare i clienti globali a creare soluzioni di intelligenza artificiale generativa innovative. L’obiettivo è collaborare con aziende di vari settori, come finanza, sanità, manifattura e media, per promuovere l’innovazione e il progresso tecnologico.

Da notare che Amazon sta lavorando su una nuova iniziativa di sicurezza interna chiamata “Maverick”, focalizzata sulla sicurezza e il rischio dell’IA generativa e dei modelli di linguaggio di grandi dimensioni. Questo progetto è guidato da John Flynn, ex CISO di Uber, e mira a fornire strumenti e linee guida per affrontare le sfide legate alla sicurezza.

Infine, Amazon è stata tra le prime aziende a mettere in guardia i propri dipendenti dall’utilizzare ChatGPT di OpenAI per informazioni sensibili. Tuttavia, i dipendenti hanno continuato a utilizzare il modello per risolvere problemi pratici, sviluppare codici e documenti di formazione. Klein ha confermato che ci sono salvaguardie per garantire un uso adeguato di queste tecnologie, incluso l’accesso a servizi di IA generativa di terze parti e la protezione dei dati sensibili.

Amazon mantiene un impegno a lungo termine verso l’IA, considerando le attuali offerte e collaborazioni solo l’inizio di una rivoluzione tecnologica. Klein ha concluso affermando che l’obiettivo è plasmare il futuro dell’IA in base alle esigenze dei clienti, promuovendo applicazioni responsabili e vantaggiose.

Di Fantasy