OpenAI introduce una gerarchia delle istruzioni per proteggere gli LLM da jailbreak e prompt injection
OpenAI ha introdotto una nuova proposta per affrontare la vulnerabilità degli Language Model (LLM) rispetto a varie forme di attacco, come prompt injection e jailbreak. Il problema principale è che…