Jailbreak-tuning dei modelli AI chiusi tramite le loro API ufficiali
Un recente studio ha rivelato una vulnerabilità critica nei modelli linguistici di grandi dimensioni (LLM) come ChatGPT, GPT-4, Claude e Gemini: è possibile “sbloccarli” utilizzando le stesse API ufficiali messe…