Jp Morgan Chase, la più grande banca d’investimento al mondo, ha recentemente proibito ai suoi dipendenti di utilizzare il software di intelligenza artificiale ChatGpt. Secondo quanto riportato dal Wall Street Journal, che ha citato fonti vicine alla vicenda, la decisione è stata presa a causa della preoccupazione per la poca accuratezza delle informazioni fornite dal software e il rischio di fughe di dati sensibili dei clienti. Non è stato chiarito come il chatbot venisse utilizzato all’interno della banca, ma il messaggio è stato chiaro: finché non si sa come funziona, è meglio contenere il più possibile la sua diffusione nelle aziende.
Alcune ipotesi suggeriscono che il problema sia la gestione dei portafogli. In un esperimento condotto da MF-Milano Finanza, l’intelligenza artificiale ha consigliato a un piccolo investitore con rischio medio di investire il 20% del proprio portafoglio in bitcoin, una percentuale simile a quella consigliata a uno speculatore con 1 milione di patrimonio investibile. Tuttavia, secondo Credit Suisse, solo il 2% di criptovalute nel portafoglio di un individuo ultra-ricco rappresenta un quarto del rischio totale, pertanto questa percentuale è considerata molto alta e potrebbe essere equiparata al gioco d’azzardo.
Nel frattempo, il colosso tlc Verizon ha anche bloccato l’uso di ChatGpt in azienda, mentre la società di consulenza Bain ha stretto un accordo con OpenAi per utilizzare l’intelligenza artificiale di ChatGpt nei loro servizi. Inoltre, le ricerche con l’intelligenza artificiale su Microsoft si fanno con la voce, il che dimostra che l’uso della tecnologia sta crescendo rapidamente in diverse aree. Tuttavia, è importante che le aziende siano consapevoli dei rischi associati all’uso di tali tecnologie e ne gestiscano in modo responsabile l’utilizzo.