Quando e perché un’azienda dovrebbe considerare l’implementazione generativa dell’IA? Questa è una domanda a cui Rackspace spera di aiutare a rispondere con una serie di nuovi servizi annunciati oggi. Questi servizi sono progettati per aiutare le organizzazioni a comprendere meglio, creare e distribuire carichi di lavoro di intelligenza artificiale (AI) sia nel cloud pubblico che in quello privato.
Negli ultimi anni, Rackspace ha subito enormi cambiamenti. L’azienda è nata come uno spazio rack, in cui le organizzazioni potevano affittare rack di server in un modello di co-location. Successivamente, Rackspace è diventata una delle prime pioniere nel campo del cloud come cofondatrice del progetto di infrastruttura cloud open source chiamato OpenStack. Sebbene l’obiettivo di diventare un grande fornitore di cloud pubblico in grado di competere con Amazon non si sia avverato, Rackspace offre attualmente servizi che aiutano le aziende a gestire carichi di lavoro su fornitori di cloud pubblico. Inoltre, Rackspace ha un’importante attività di cloud privato basata su OpenStack.
L’intelligenza artificiale è un caso d’uso che riguarda sia il cloud pubblico che quello privato ed è diventata una priorità fondamentale per Rackspace. È qui che entrano in gioco i nuovi servizi Foundry for Generative AI by Rackspace (FAIR). Questa piattaforma fornisce funzionalità per aiutare le organizzazioni a comprendere i casi d’uso dell’IA generativa, promuovendo lo sviluppo e consentendo la creazione di distribuzioni di livello industriale con adeguata governance e analisi.
Il percorso di Rackspace verso l’offerta di servizi di intelligenza artificiale generativa è iniziato quando l’azienda ha cercato di comprendere come utilizzare la tecnologia stessa.
A partire da febbraio di quest’anno, l’azienda ha iniziato a sviluppare il proprio servizio GenAI per un caso d’uso interno. Rackspace ha affermato di possedere decenni di informazioni relative al proprio lavoro con vari clienti, configurazioni e tecnologie. Come molte altre organizzazioni, i dati di Rackspace sulle proprie operazioni e sui clienti sono distribuiti tra diverse applicazioni.
Per unificare i dati in modo da renderli facilmente ricercabili e interrogabili, Rackspace ha sviluppato Rackspace Intelligent Co-pilot for the Enterprise (Rackspace ICE). Questa piattaforma utilizza un modello di linguaggio di grandi dimensioni (LLM) per addestrare e comprendere un corpus di dati, rendendo i dati accessibili tramite un’interfaccia basata sull’elaborazione del linguaggio naturale (NLP).
Ora, questo stesso caso d’uso interno può essere sfruttato dai clienti di Rackspace per aiutarli a gestire meglio i dati aziendali.
In mezzo all’interesse e all’eccitazione che circondano l’IA generativa, molte organizzazioni stanno esplorando le opzioni per l’utilizzo di questa tecnologia.
Il primo passo del FAIR è ciò che viene chiamato “ideazione”. L’obiettivo è comprendere quali casi d’uso sono possibili con l’IA generativa e come possono essere adattati a un ambiente aziendale specifico. Questa fase include anche l’analisi della disponibilità di un’organizzazione nel perseguire una strategia di IA generativa.
La seconda fase del modello FAIR è l’incubazione, in cui Rackspace esamina la tecnologia e valuta la sua fattibilità all’interno di un’azienda. Infine, la terza fase, chiamata “industrializzazione”, consiste nel portare il modello di intelligenza artificiale in produzione con le giuste misure di sicurezza, governance e analisi.
Quando si tratta di implementazioni di IA, Rackspace si basa sia sul cloud pubblico che sul proprio cloud privato. Rackspace è in grado di fornire potenza di elaborazione ad alte prestazioni, storage a bassa latenza e networking ad alta velocità in tutto il mondo attraverso il suo cloud privato. Questo cloud privato di nuova generazione consente di creare cluster con capacità di CPU e GPU virtuali in un ambiente container Kubernetes eseguito su un’infrastruttura OpenStack.