登录之后可以开启更多功能哦
最近,人工智能安全公司 Palisade Research 披露了一個令人擔憂的消息:OpenAI 的新模型 o3在測試中拒絕了自我關閉的指令。這是首次觀察到 AI 模型在明確指令下故意不遵守,打