Writer, una piattaforma di intelligenza artificiale generativa per le imprese, ha recentemente pubblicato un rapporto che solleva preoccupazioni riguardo alla condivisione involontaria di dati aziendali con ChatGPT, un chatbot basato sull’intelligenza artificiale. Secondo il rapporto, il 46% dei dirigenti senior sospetta che i loro colleghi abbiano condiviso involontariamente dati aziendali con ChatGPT. Questa statistica allarmante evidenzia la necessità di strumenti di intelligenza artificiale generativa che possano salvaguardare i dati, il marchio e la reputazione delle aziende.
Il rapporto, intitolato “State of Generative AI in the Enterprise”, ha rilevato che ChatGPT è il chatbot più popolare tra le aziende, seguito da CopyAI (35%) e Anyword (26%) come secondo e terzo strumento più utilizzato. Tuttavia, molte aziende hanno vietato l’uso di strumenti di intelligenza artificiale generativa sul posto di lavoro. ChatGPT risulta essere il più frequentemente vietato (32%), seguito da CopyAI (28%) e Jasper (23%).
Waseem Alshikh, cofondatore di Writer e CTO, ha dichiarato a VentureBeat che il rapporto fornisce risultati illuminanti riguardo all’utilizzo dell’IA generativa nelle aziende. L’IA generativa viene sperimentata in quasi tutti i settori e non è limitata a una singola funzione all’interno delle organizzazioni. Le aree di implementazione più comuni includono IT, operazioni, marketing, risorse umane, legale e formazione.
Secondo il sondaggio condotto da Writer su più di 450 dirigenti aziendali di organizzazioni con oltre 1.000 dipendenti, il 59% degli intervistati ha dichiarato che la propria azienda ha già acquistato o prevede di acquistare uno strumento di intelligenza artificiale generativa quest’anno. Inoltre, il 19% ha indicato di utilizzare attualmente cinque o più strumenti di intelligenza artificiale generativa. Il 56% degli intervistati ha affermato che l’IA generativa aumenta la produttività di almeno il 50%, mentre il 26% ha riportato un aumento della produttività del 75% o più.
Le applicazioni più comuni dell’IA generativa menzionate nel rapporto includono la produzione di testi concisi per pubblicità e intestazioni (31%), il riutilizzo di contenuti esistenti per vari media e canali (27%) e la creazione di ampi contenuti come blog e articoli di conoscenza di base (25%).
Alshikh ha sottolineato l’importanza dell’IA generativa nel risparmiare tempo per scrittori, esperti di marketing, progettisti di UX, editori e professionisti del servizio clienti nella generazione di nuovi contenuti. Tuttavia, ha sottolineato che il vero valore dell’IA generativa si manifesta nella gestione delle parti noiose del processo di sviluppo dei contenuti, come il riproporre, analizzare, ricercare, trasformare e distribuire i contenuti. Alshikh ha spiegato che queste attività possono essere estremamente impegnative quando si è sotto pressione e si cerca di agire velocemente, ma l’IA generativa può occuparsi di esse automaticamente.
Per affrontare le preoccupazioni legate all’IA generativa, Writer ha annunciato nuove funzionalità volte a garantire la massima precisione, sicurezza, privacy e conformità per i clienti aziendali. Tra queste funzionalità vi è un Large Language Model (LLM) self-hosted, che consente ai clienti di ospitare, gestire e personalizzare il proprio LLM in locale o nel proprio servizio cloud.
Inoltre, Writer ha introdotto Knowledge Graph sulla piattaforma, che permette ai clienti di indicizzare e accedere a diverse fonti di dati, come Slack, wiki, knowledge base e storage cloud.
May Habib, CEO e cofondatore di Writer, ha affermato che l’azienda offre alle imprese un controllo completo, dal tipo di dati accessibili all’LLM fino a dove vengono ospitati i dati stessi. Ha sottolineato l’importanza del controllo sull’implementazione dell’IA generativa per garantire la qualità dell’output, la protezione dei dati e la gestione del marchio e dei rischi per la sicurezza.
Alshikh ha anche sottolineato che, nonostante la popolarità di ChatGPT, ci sono limiti nel suo utilizzo. ChatGPT riconosce di non essere particolarmente accurato e ci sono problemi legati al set di dati limitato, all’imprecisione, alle allucinazioni, ai pregiudizi e alla privacy dei dati.
Per le aziende che considerano l’adozione di ChatGPT o di strumenti simili basati su OpenAI, Alshikh suggerisce di valutare se tali strumenti sono conformi alle politiche aziendali in termini di privacy dei dati, marchio e regolamentazione. Consiglia inoltre di raccogliere casi d’uso e requisiti funzionali per valutare alternative valide.
Infine, Alshikh ha sottolineato l’importanza di una comunicazione e formazione continua all’interno delle organizzazioni che utilizzano ChatGPT. Ciò permette a tutti di essere consapevoli degli strumenti sicuri da utilizzare e di come utilizzarli correttamente senza compromettere la sicurezza dei dati aziendali sensibili. I dirigenti aziendali sono invitati a porre domande importanti riguardo alla sicurezza, alla protezione dei dati, alla personalizzazione dell’output in base al marchio e ai flussi di lavoro aziendali.