Cloudflare ha recentemente reso più semplice per gli sviluppatori portare le proprie applicazioni di intelligenza artificiale da Hugging Face sulla sua piattaforma. Inoltre, ha annunciato la disponibilità generale della sua inferenza serverless basata su GPU, conosciuta come Workers AI.
L’integrazione tra Cloudflare e Hugging Face, annunciata sette mesi fa, semplifica notevolmente la distribuzione dei modelli su Workers AI. Gli sviluppatori possono ora distribuire immediatamente quattordici modelli Hugging Face curati per generazione di testo, incorporamento e confronto di frasi.
Matthew Prince, CEO di Cloudflare, ha sottolineato che il recente interesse per l’intelligenza artificiale ha spinto molte aziende a investire in questa tecnologia. Tuttavia, mettere effettivamente in produzione l’IA è molto difficile. Cloudflare e Hugging Face stanno lavorando insieme per semplificare questo processo, offrendo agli sviluppatori una soluzione conveniente e accessibile per eseguire l’inferenza AI.
Attraverso Hugging Face, gli sviluppatori possono selezionare il modello open source desiderato e distribuirlo immediatamente su Cloudflare Workers AI. Questo garantisce una distribuzione simultanea in tutto il mondo, evitando ritardi o esperienze errate.
Julien Chaumond, co-fondatore e Chief Technology Officer di Hugging Face, ha sottolineato l’importanza di offrire modelli aperti con un’API serverless supportata da GPU globali, ritenendo che sia un’opportunità straordinaria per la comunità di Hugging Face.
Inoltre, Cloudflare ha migliorato Workers AI per supportare pesi di modello ottimizzati, consentendo agli sviluppatori di creare e distribuire applicazioni specializzate in diverse città in tutto il mondo.