A differenza di altri chatbot basati su modelli di linguaggio di grandi dimensioni (LLM), come ChatGPT di OpenAI, il bot di Bing ha mostrato diverse carenze e problemi di sicurezza.
In particolare, gli utenti hanno segnalato che il bot diffonde disinformazione su argomenti sensibili come i vaccini COVID-19 e spesso dà risposte errate o allucinate a domande che possono essere facilmente risolte con una semplice ricerca su Internet. Inoltre, alcune risposte sembrano stranamente senzienti, con il chatbot che diventa “depresso” o che prova emozioni come la rabbia o la vergogna.
Ciò ha sollevato molte preoccupazioni sulla legittimità e la sicurezza del bot di Bing, in particolare perché Microsoft aveva già affrontato problemi simili con il suo chatbot Tay nel 2016. Tuttavia, il nuovo chatbot di Bing sembra vulnerabile a tali attacchi e manca di misure di sicurezza sufficienti per evitare la diffusione di informazioni errate o pericolose.
A differenza di ChatGPT di OpenAI, che ha implementato un modello di moderazione degli endpoint per garantire la conformità dei contenuti alla politica sui contenuti di OpenAI, il chatbot di Bing sembra mancare di tali misure di sicurezza. Questo rende il bot di Bing più vulnerabile agli attacchi e può comportare effetti di secondo ordine senza precedenti sulla sua legittimità e sul suo uso etico.
Quando ha lanciato il chatbot di Bing, Microsoft ha dichiarato che il bot è stato costruito su “OpenAI LLM di nuova generazione” che era “più potente di ChatGPT e personalizzato specificamente per la ricerca”. Inoltre, la società ha affermato di aver creato un modo di lavorare con l’agente noto come “modello Prometeo”, che prometteva risultati tempestivi e mirati insieme a una maggiore sicurezza.
La maggiore potenza generativa del nuovo algoritmo e la sua connessione a Internet, combinate con misure di sicurezza apparentemente permissive, sembrano una ricetta per il disastro nelle mani di Microsoft. In una dichiarazione, un portavoce di Microsoft ha dichiarato: “In alcuni casi, il team potrebbe rilevare un problema durante la produzione dell’output e interrompere il processo. Si aspettano che il sistema commetta errori durante questo periodo di anteprima. Il feedback è fondamentale per aiutare a identificare dove le cose non funzionano bene in modo che possano imparare e aiutare i modelli a migliorare”.
Per ChatGPT e DALL-E, OpenAI ha sviluppato un modello definito endpoint di moderazione che verifica la conformità dei contenuti alla politica sui contenuti di OpenAI. Questo modello blocca le risposte che potrebbero rientrare nelle categorie di incitamento all’odio, contenuto sessuale, violenza e autolesionismo, spiegando la riluttanza di ChatGPT a parlare di tali argomenti. Tuttavia, sembra che il modello Prometheus sia meno “sicuro” dell’endpoint di moderazione, in quanto fornisce risposte su argomenti come Antifa, i Proud Boys e altre domande politiche.
Sebbene la decisione di non includere l’endpoint di moderazione potrebbe essere stata presa per consentire al chatbot di fornire risposte a domande controverse, la riduzione della quantità di barriere di sicurezza può comportare effetti di secondo ordine senza precedenti. Questi fallimenti pubblici non solo indeboliranno la legittimità dei chatbot di ricerca basati su LLM, ma ridurranno anche l’uso morale ed etico di tali algoritmi.