La vulnerabilità dei sistemi chatbot: il caso degli attacchi di tipo prompt injection
Gli attacchi di Prompt Injection come DAN (Do Anything Now) e Sydney (Bing Chat) di ChatGPT non sono più da considerarsi come semplici scherzi. In particolare, l’attacco DAN ha sfruttato…