Amazon sta espandendo ulteriormente la sua già impressionante gamma di servizi di intelligenza artificiale, con una serie di nuove funzionalità annunciate oggi alla conferenza annuale AWS re:Invent 2023 a Seattle.
Durante una lunga sessione di keynote che è durata quasi 2,5 ore, Adam Selipsky, CEO di Amazon Web Services (AWS), il più grande fornitore al mondo di servizi cloud in termini di fatturato, numero di clienti e dati archiviati, ha fornito dettagli sui progressi costanti compiuti dalla sua divisione nel corso dell’ultimo anno.
Dato che siamo nel 2023, la stragrande maggioranza del keynote di Selipsky era dedicata all’intelligenza artificiale in varie forme. In cima alla lista degli annunci di AWS c’è la nuova Amazon Q (sì, un’altra Q, ma non è la Q* di OpenAI né l’entità multidimensionale Q di Star Trek, né QAnon). Questa nuova IA di Amazon introdurrà l’automazione nell’intelligenza artificiale generativa attraverso i servizi cloud AWS, facilitando lo sviluppo, l’analisi e le operazioni.
Selipsky ha inoltre fornito dettagli sulle numerose nuove funzionalità ora disponibili nel servizio di modello di intelligenza artificiale generativa Amazon Bedrock.
Inoltre, durante la conferenza, il CEO di Nvidia, Jenson Huang, ha spiegato in dettaglio come le due società stanno collaborando.
Tuttavia, poco dopo l’uscita di Huang dal palco, Selipsky ha annunciato l’uscita del nuovo silicio competitivo Tranium 3 di AWS per l’addestramento nell’intelligenza artificiale.
Nel complesso, Selipsky ha sottolineato come AWS assista le organizzazioni in tutte le fasi del ciclo di vita dell’intelligenza artificiale, fornendo infrastrutture, modelli e applicazioni di supporto.
“Se stai sviluppando i tuoi modelli, AWS si concentra costantemente su ciò di cui hai bisogno: dai migliori chip e virtualizzazione avanzata, a potenti capacità di rete su vasta scala, clustering su larga scala e gli strumenti giusti per aiutarti a costruire”, ha affermato Selipsky.
L’idea di un assistente IA per le operazioni nel cloud è simile a quella promossa da Microsoft con il suo approccio Copilot e dai progressi fatti da Google con il suo duetto AI.
AWS sta ora seguendo la stessa strada con Amazon Q, che è strettamente integrato in numerosi servizi cloud, tra cui Amazon CodeWhisper e Amazon Connect, tra molti altri. Selipsky ha dichiarato che Q può rispondere a domande, generare testo e visualizzazioni, nonché eseguire azioni per conto degli utenti.
“Ci aspettiamo che Amazon Q permetterà ai clienti di risparmiare molto tempo nell’architettura, nella risoluzione dei problemi e nell’ottimizzazione dei carichi di lavoro”, ha affermato Selipsky.
Amazon Q sarà in grado di assistere gli sviluppatori che lavorano su AWS, rispondendo a domande sui servizi e sulla risoluzione dei problemi. Sarà anche integrato in applicazioni e strumenti aziendali per migliorarne le funzionalità, ad esempio nell’assistenza agli agenti dei contact center tramite Amazon Connect.
Dal punto di vista degli sviluppatori, una delle funzionalità di Amazon Q si chiama “trasformazione del codice” ed è la prima di una serie di funzionalità che arriveranno per aiutare le organizzazioni nella migrazione tra diverse tecnologie. La capacità iniziale di trasformazione del codice Q di Amazon ha permesso ad Amazon stessa di migrare 1000 applicazioni Java da una versione precedente a una versione moderna in soli due giorni.
“Questo è un risparmio di tempo enorme rispetto al passato, quando l’aggiornamento di una singola applicazione richiedeva mesi, se non anni”, ha sottolineato Selipsky.
Inoltre, Selipsky ha annunciato una serie di aggiornamenti incrementali per il servizio Amazon Bedrock, che è diventato generalmente disponibile a settembre. Amazon Bedrock offre ora nuove funzionalità di personalizzazione che consentono ai clienti di adattare ulteriormente i modelli di intelligenza artificiale generativa alle loro specifiche esigenze e dati.
Una di queste nuove funzionalità di personalizzazione permette di ottimizzare i modelli utilizzando esempi etichettati dai dati del cliente per insegnare ai modelli informazioni specifiche del business, come domini, prodotti o servizi.
È inoltre disponibile la funzionalità RAG (Retrieval-Augmented Generation), che consente ai modelli di recuperare e considerare informazioni aggiuntive dalle fonti dati interne del cliente durante la risposta. Un’altra funzionalità di personalizzazione è chiamata “Pre-formazione continua,” che utilizza grandi quantità di dati non etichettati di un cliente per migliorare la conoscenza e le capacità di ragionamento di un modello nel suo settore o campo specifico.
“Vogliamo che tu possa utilizzare Bedrock per completare azioni come prenotare viaggi, presentare richieste di indennizzi assicurativi, distribuire software… e questo di solito richiede l’orchestrazione tra più sistemi che operano nella tua organizzazione”, ha affermato Selipsky. “Ecco perché alcuni mesi fa abbiamo introdotto gli agenti per Bedrock e oggi sono felice di annunciare che questa potente funzionalità è oggi disponibile a livello generale”
Facendo un ulteriore passo avanti, Selipsky ha anche annunciato Amazon Bedrock Guardrails come un modo per migliorare ulteriormente la sicurezza dei modelli IA. Guardrail che consentono ai clienti di configurare modelli per evitare determinati argomenti, parole o risposte in base alle loro politiche di intelligenza artificiale responsabile.
“Ci stiamo avvicinando all’intero concetto di intelligenza artificiale generativa in un modo fondamentalmente diverso perché comprendiamo cosa serve per reinventare il modo in cui costruirai con questa tecnologia”, ha affermato Selipsky.