什麼是越獄(AI 破解)? 繞過 AI 安全限制的技巧,讓模型輸出本應被禁止的內容。和 Prompt Injection 不同,Jailbreak 通常利用模型的推理能力來「說服」它違反規則。AI 廠商持續更新防禦,但這是一場持續的攻防戰。