È stato emesso un avviso secondo cui se i chatbot di intelligenza artificiale (AI) come “ChatGPT” vengono combinati con l’attività interna di un’azienda, le informazioni sui clienti e i segreti aziendali potrebbero essere divulgati all’esterno.
Bloomberg News ha riferito che la società di sicurezza israeliana Team8 ha sollevato questo rischio in un rapporto.
Il rapporto ha sottolineato che sarà molto difficile cancellare i dati che i dipendenti inseriscono inavvertitamente nel processo di utilizzo dei chatbot AI nelle aziende. Inoltre, ha affermato che informazioni sensibili, proprietà intellettuale, codice sorgente e dati, comprese informazioni sui clienti o individuali e segreti aziendali, potrebbero essere trapelati attraverso l’API.
Inoltre, è stato diagnosticato che quando si integrano strumenti di intelligenza artificiale generativa, inclusi i chatbot, nel lavoro, esiste il rischio di uso improprio delle informazioni condivise tramite applicazioni di terze parti. Pertanto, il rapporto ha sottolineato che i rischi devono essere gestiti attraverso adeguate salvaguardie.
Nel caso di Microsoft (MS), le funzioni di AI chatbot sono state integrate nel motore di ricerca “Bing” e in alcuni strumenti di MS 365. A questo proposito, Microsoft ha affermato che il vicepresidente aziendale Ann Johnson ha partecipato alla stesura del rapporto del Team 8 e sta incoraggiando discussioni trasparenti sull’evoluzione dei rischi informatici.
Il rapporto del Team 8 ha dozzine di chief information security officer (CIO) di società statunitensi elencate come contributori ed è stato supervisionato dall’ex direttore della US National Security Agency (NSA) Michael Rogers.