ServiceNow, un noto fornitore specializzato nell’automazione dei flussi di lavoro aziendali, sta adottando l’intelligenza artificiale generativa (IA) per trasformare i processi aziendali tradizionalmente lenti.
Durante la loro conferenza Knowledge 23 in corso, ServiceNow, con sede a Santa Clara, in California, ha annunciato una partnership con Nvidia per lo sviluppo di modelli personalizzati di intelligenza artificiale generativa per diverse funzioni aziendali, iniziando dai flussi di lavoro IT.
“IT è il sistema nervoso di ogni impresa moderna, in ogni settore. La nostra collaborazione per creare un’IA generativa altamente specializzata per le aziende aumenterà le capacità e la produttività dei professionisti IT in tutto il mondo che utilizzano la piattaforma ServiceNow”, ha dichiarato Jensen Huang, fondatore e CEO di Nvidia, durante l’annuncio insieme al presidente e COO di ServiceNow, CJ Desai.
La partnership prevede che ServiceNow sfrutti il software, i servizi e l’infrastruttura accelerata di Nvidia. Questo accordo giunge in un momento in cui le aziende globali stanno continuando a esplorare il potenziale dell’IA generativa per migliorare l’efficienza.
Nonostante i modelli di intelligenza artificiale generativa come la famosa serie GPT svolgano un buon lavoro, è risaputo che apprendono dai dati di dominio pubblico per fornire risultati. Tuttavia, per i casi d’uso aziendali, ciò potrebbe non essere sufficientemente efficace, in quanto i modelli non sono stati esposti a dati interni specifici dell’azienda.
Ad esempio, se un dipendente chiede informazioni sulla connessione VPN di un’azienda o su una politica interna, i modelli pubblici potrebbero non essere in grado di rispondere in modo accurato a tali domande.
Con questa collaborazione con Nvidia, ServiceNow cerca di colmare questa lacuna costruendo modelli personalizzati di intelligenza artificiale generativa per le aziende, ottimizzati per apprendere il linguaggio specifico di un’azienda e fornire risposte accurate e specifiche al dominio aziendale.
“Cominceremo con il dominio IT, utilizzando i modelli di base NeMo di Nvidia come punto di partenza e le GPU Nvidia. Su questa base, svilupperemo ulteriormente le capacità”, ha dichiarato Rama Akkiraju, vicepresidente di AI/ML per l’IT di Nvidia, durante una conferenza stampa. I modelli personalizzati di intelligenza artificiale generativa saranno resi disponibili tramite la piattaforma Now di ServiceNow, che già offre funzionalità di intelligenza artificiale per automatizzare i flussi di lavoro aziendali tra i diversi dipartimenti.
Con l’implementazione di questi modelli personalizzati, ServiceNow offrirà ai suoi clienti la possibilità di affrontare una vasta gamma di casi d’uso nell’ambito della gestione dei servizi IT e delle operazioni IT. Ciò comprenderà il riassunto e la risoluzione dei ticket di supporto, la previsione della gravità degli incidenti e la ricerca semantica delle politiche IT (e di altre documentazioni) tramite una centralizzata esperienza di chatbot.
Inoltre, questa stessa tecnologia potrebbe rivelarsi utile per migliorare le esperienze dei dipendenti, offrendo raccomandazioni personalizzate per l’apprendimento e lo sviluppo, come corsi basati su query in linguaggio naturale e informazioni tratte dai profili dei dipendenti.
In qualità di cliente di ServiceNow, Nvidia si impegna anche a condividere i propri dati per la ricerca iniziale e lo sviluppo di modelli personalizzati per gestire casi d’uso specifici nell’ambito IT. Inizialmente, le aziende stanno focalizzando l’attenzione sul riassunto dei ticket, un processo che richiede dai sette agli otto minuti se svolto manualmente dagli operatori, ma che potrebbe essere gestito istantaneamente dai modelli di intelligenza artificiale.
Per svolgere questo compito, ServiceNow sta utilizzando i servizi cloud Nvidia AI Foundations e la piattaforma software Nvidia AI Enterprise, che include il framework NeMo e i guardrail NeMo. I modelli personalizzati, secondo quanto dichiarato da Nvidia, saranno eseguiti su un’infrastruttura cloud ibrida composta da Nvidia DGX Cloud e dai supercomputer AI Nvidia DGX SuperPOD locali.