Art Prompt consente di eseguire il jailbreak dei chatbot con ASCII Art
È stato riportato che è stato sviluppato un nuovo metodo di induzione del jailbreak che evade i guardrail del Large Language Model (LLM) attraverso l’uso di “ASCII Art”, che rappresenta…