La partnership Microsoft-OpenAI ha cambiato il gioco per lo sviluppo dell’IA.
Qualche giorno fa, Sam Altman, co-fondatore di OpenAI, ha twittato accreditando Microsoft, in particolare Azure, per aver fornito l’infrastruttura AI che alimenta i modelli di linguaggio GPT. Che si tratti di IA conversazionale, ChatGPT o modellazione da testo a immagine come Dall-E, OpenAI è in grado di lanciare senza problemi i suoi prodotti, tutto grazie a Microsoft.
La partnership OpenAI-Microsoft è iniziata nel 2019 quando Microsoft ha annunciato che avrebbe investito 1 miliardo di dollari nel progetto di OpenAI di costruire un’Intelligenza Generale Artificiale (AGI) con ampi vantaggi economici. OpenAI ha affermato che la partnership mira a sviluppare una piattaforma hardware e software all’interno di Azure. L’accordo significava anche che Microsoft sarebbe diventata il provider cloud esclusivo di OpenAI.
Termini del partenariato
La partnership copriva tre aspetti chiave: le due società costruiranno insieme le tecnologie di supercalcolo AI di Azure, OpenAI eseguirà i suoi servizi su Microsoft e, infine, Microsoft sarà il partner preferito di OpenAI per commercializzare le sue nuove tecnologie AI.
Di conseguenza, l’accesso API a qualsiasi prodotto OpenAI sarà disponibile solo se utilizzi Microsoft. Prendiamo, ad esempio, Shutterstock, che ha recentemente annunciato che integrerà Dall-E sulla sua piattaforma. Sebbene Microsoft non sia proprietaria di Shutterstock, nel 2020 ha annunciato che Microsoft Advertising avrebbe collaborato con loro per integrare l’API di Shutterstock sulla sua piattaforma pubblicitaria. Pertanto, l’accesso all’API di OpenAI andrebbe a vantaggio sia di Microsoft che di Shutterstock.
Microsoft ha anche collaborato con OpenAI per costruire il quinto supercomputer più potente, che dovrebbe essere utilizzato esclusivamente da OpenAI. Il supercomputer è stato costruito per addestrare enormi modelli di IA distribuiti.
Tuttavia, mentre i prodotti di OpenAI sono limitati esclusivamente a Microsoft, i suoi modelli sono disponibili pubblicamente e sono già utilizzati da molti per creare i propri prodotti. Ad esempio, quasi tutte le aziende di intelligenza artificiale utilizzano il modello GPT-3 per scrivere servizi, più recentemente Notion. Allo stesso modo, il modello GPT-3.5 è già in uso, con molti che lo integrano con piattaforme di messaggistica come “Whatsapp” e “Telegram”.
Leggi: ChatGPT è ora disponibile su WhatsApp
L’infrastruttura AI di Microsoft
Microsoft Azure ha rilasciato pubblicamente il suo servizio di infrastruttura AI denominato Singularity nel febbraio 2022. La nuova piattaforma è stata creata da zero per trasportare carichi di lavoro AI sia all’interno che all’esterno di Microsoft. Il salto dal sistema operativo all’intelligenza artificiale si è rivelato un grande passo avanti per Microsoft, poiché la loro piattaforma riduce i costi favorendo un elevato utilizzo nei carichi di lavoro di deep learning senza influire sulle prestazioni. Per questo, la piattaforma utilizza uno scheduler consapevole del carico di lavoro che ottimizza le prestazioni dando la priorità tra diversi carichi di lavoro. Quindi, ad esempio, “Singularity si adatta all’aumento del carico su un lavoro di inferenza, liberando capacità ridimensionando in modo elastico o anticipando i lavori di formazione”.
In sostanza, la piattaforma consente a centinaia e migliaia di GPU e acceleratori AI di lavorare insieme, trattandoli come un singolo cluster. Il servizio consente ai data scientist e ai professionisti dell’intelligenza artificiale di creare, ridimensionare, sperimentare e iterare i propri modelli sul servizio di infrastruttura distribuita di Microsoft.
OpenAI al servizio delle startup Microsoft
OpenAI ha consentito il lancio di diverse startup AI di Microsoft. Sotto il banner del servizio Azure OpenAI, Microsoft invita le aziende a sfruttare modelli di intelligenza artificiale generativa su larga scala con una profonda comprensione del linguaggio e del codice per creare applicazioni all’avanguardia. Azure OpenAI differisce da OpenAI, in quanto il servizio del primo offre ai clienti un’intelligenza artificiale responsabile integrata e l’accesso alla sicurezza di Azure di livello aziendale, rilevando e mitigando così l’uso dannoso dell’API.
Questo servizio cognitivo offerto da Azure fornisce modelli di linguaggio avanzati come OpenAI GPT-3, Codex e DALL-E insieme alle funzionalità aziendali e di sicurezza di Azure. La combinazione dei due consente il networking privato , la disponibilità regionale e il filtraggio responsabile dei contenuti tramite intelligenza artificiale . Attualmente, i clienti con una partnership esistente con Microsoft possono utilizzare il servizio dopo un’analisi approfondita del caso d’uso prima di essere rilasciati per l’uso in produzione.
Startup come VideoKen, mem.ai e Pointers sono solo alcune delle tante registrate per Microsoft for Startups .
Inoltre, Virta.ai, una piattaforma per la traduzione di testi multimediali, utilizza un’unica integrazione API con Servizi cognitivi di Azure per scaricare le attività per tutta la loro elaborazione del linguaggio naturale (NLP) su un modello con pagamento in base al consumo. Allo stesso modo, Trelent, l’applicazione AI per la documentazione del codice sorgente, è alimentata dal servizio Azure OpenAI di Microsoft.
OpenAI, sempre primo nel gioco
Diversi attori del mercato lavorano su modelli di grandi dimensioni, ma OpenAI è sempre riuscito a essere il primo a muoversi sotto certi aspetti. Con modelli come GPT-3, Dall-E e il recente fenomeno di ChatGPT, è riuscita a essere in prima linea nell’innovazione dell’IA.
L’assistente di codifica AI, Copilot, alimentato dal Codex di OpenAI, ha avuto un grande successo e ha ucciso quasi tutti i suoi concorrenti a causa degli immensi dati di codifica disponibili a Microsoft con GitHub. OpenAI è stato così in grado di sfruttare la base di clienti e i dati di formazione esistenti di Microsoft.
Quello che sarà interessante vedere da qui è come Microsoft dà a Bing, il suo motore di ricerca, una seconda vita con un chatbot come ChatGPT e molti altri prodotti nella sua pipeline. Tuttavia, il monopolio di Google sul mercato dei motori di ricerca sarà difficile da superare, soprattutto perché la prossima iterazione del chatbot di Google LaMDA è già in lavorazione. Pertanto, Google cercherà presto di integrarlo nel suo motore di ricerca.