L’interesse per la scelta adeguata delle risorse GPU per i progetti di intelligenza artificiale (IA) è in aumento. Silicon Angle ha riportato che Inference.AI, un fornitore di servizi cloud GPU, sta utilizzando un chatbot basato sull’IA per assistere le aziende nella selezione delle GPU più adatte alle loro esigenze di formazione e inferenza.
Inference.AI è una delle startup che gestisce una piattaforma cloud GPU per le aziende. Dato che le GPU sono costose e limitate in disponibilità, l’approccio è quello di noleggiarle solo nelle quantità necessarie per evitare sprechi.
L’azienda offre una vasta gamma di GPU, comprese 18 diverse varianti di processori NVIDIA, come “H100”, e quattro modelli AMD, tra cui ‘MI300X’.
Per supportare lo sviluppo di applicazioni in tempo reale, Inference.AI ha una rete di data center distribuiti globalmente, permettendo alle aziende di accedere alle GPU rapidamente da qualsiasi luogo.
Inoltre, sostiene di offrire i prezzi più bassi del settore, fino all’82% in meno rispetto ai giganti del cloud come AWS, Microsoft Azure e Google Cloud. Per questo motivo, la società ha sviluppato un nuovo chatbot IA per aiutare le aziende a selezionare le GPU più adatte alle loro esigenze prestazionali e di budget.
Il chatbot IA pone domande semplici in linguaggio naturale per comprendere il progetto dell’utente e determinarne i requisiti informatici. Successivamente, propone le impostazioni GPU ottimali per implementare i progetti IA in modo efficiente.
Secondo l’azienda, molte aziende hanno incertezze quando affrontano progetti di IA per la prima volta, poiché mancano di esperienza nell’infrastruttura necessaria. Il CEO di Inference.AI, John Yue, ha paragonato il processo di selezione delle GPU all’acquisto di un’auto, sottolineando l’importanza di comprendere esattamente le proprie esigenze prima di investire.