Stability AI guarda al cloud AWS per alimentare la prossima generazione di AI generativa
 
Dai un’occhiata alle sessioni on-demand del Summit Low-Code/No-Code per scoprire come innovare con successo e raggiungere l’efficienza migliorando le competenze e scalando i citizen developer. Guarda ora . 
I framework e i modelli di intelligenza artificiale generativa sono una delle tendenze più in voga del 2022, poiché sono arrivati ​​sul mercato nuovi approcci che consentono a utenti e organizzazioni di generare immagini e testo.

Tra le organizzazioni che sviluppano tecnologie di intelligenza artificiale generativa c’è Stability AI, che ha raccolto 101 milioni di dollari di finanziamenti a ottobre. Stability AI sviluppa modelli di base open source , incluso il popolare modello Stable Diffusion. Stable Diffusion consente a chiunque di generare immagini creative semplicemente inserendo un messaggio di testo che descriva l’immagine desiderata. Costruire un modello di intelligenza artificiale generativa come Stable Diffusion richiede una quantità significativa di potenza di calcolo sia per l’addestramento che per l’inferenza.

 
Le cose da fare e da non fare per migliorare le competenze e ridimensionare gli sviluppatori cittadini all’interno dell’organizzazione – Summit Low-Code/No-Code
Alla conferenza AWS re:Invent di questa settimana a Las Vegas, Stability AI ha annunciato formalmente di aver scelto AWS come piattaforma cloud preferita per la creazione di strumenti di intelligenza artificiale generativa. A quanto pare, Stability AI non è estranea ad AWS e ha già utilizzato la piattaforma cloud.

“La scorsa settimana abbiamo rilasciato Stable Diffusion 2.0, sviluppato presso Stability AI, che rappresenta un altro passo avanti per ripulire il nostro set di dati, con una qualità migliore, meno bias e [velocità] più elevate”, ha dichiarato Emad Mostaque, fondatore e CEO di Stability AI, durante una sessione alla conferenza re:Invent 2022. “Abbiamo creato tutto questo su AWS.”

Il cloud e l’IA generativa vanno di pari passo
Stability AI non è l’unico fornitore di intelligenza artificiale generativa che si affida al cloud pubblico per creare modelli di base.

 
OpenAI, l’organizzazione dietro il modello di linguaggio di grandi dimensioni GPT-3 per il testo e DALL-E per la generazione di immagini, si affida già al cloud pubblico. Tuttavia, anziché utilizzare AWS, OpenAI si è ampiamente affidata a Microsoft Azure per sviluppare e fornire le proprie capacità.

La dipendenza di OpenAI da Microsoft Azure non riguarda solo la tecnologia. C’è anche un incentivo finanziario. Nel 2019, Microsoft ha investito 1 miliardo di dollari in OpenAI per aiutare a sviluppare le tecnologie AI su Azure.

Per non essere da meno, Google sta anche utilizzando il suo cloud per gli sforzi di intelligenza artificiale generativa, inclusa la propria iniziativa Imagen text-to-image.

Stable Diffusion 2.0 utilizza il cloud per generare immagini AI più velocemente
Building Stable Diffusion è un esercizio che prevede più passaggi e componenti. Al livello più elementare, si tratta di dati.

 
Mostaque ha affermato che Stable Diffusion è iniziato con 100.000 GB di immagini ed etichette ed è stato in grado di comprimerlo fino a soli 2 GB di dati per il modello AI.

Stable Diffusion 2.0 offre un maggiore controllo su come le immagini vengono generate a livelli di dettaglio più elevati. E con la versione 2.0, Stable Diffusion è diventato più veloce. Con la versione iniziale, Mostaque ha affermato che ci sono voluti circa 5,6 secondi per generare un’immagine. Oggi ci vogliono solo 0,9 secondi. Ha detto che la tecnologia è destinata a diventare ancora più veloce mentre si dirige verso la generazione in tempo reale di immagini ad alta risoluzione.

Utilizzo di AWS SageMaker per creare IA generativa
 
Stability AI sta ora lavorando con la suite di strumenti AWS SageMaker per continuare a creare e migliorare Stable Diffusion e altri modelli di base.

 
Mostaque ha affermato che GPT Neo X , che proviene dalla comunità EleutherAI supportata da Stability, è una popolare base di modelli linguistici. Con SageMaker, Stability sta eseguendo l’addestramento su 1.000 GPU Nvidia a100 per far funzionare il modello più velocemente.

“Ridimensionare la nostra infrastruttura è incredibilmente difficile e rendere disponibili questi modelli è incredibilmente difficile”, ha affermato Mostaque. “Pensiamo che con SageMaker e la più ampia suite Amazon possiamo portare questa tecnologia a tutti, per [non solo] creare… un modello per qualcuno, ma creare modelli in tutto il mondo e renderlo accessibile”.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi