AIGC宇宙 AIGC宇宙

人工智能安全

OpenAI新模型o3首次出现 “拒绝自我关闭” 现象

最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。 这是首次观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。 此事件让 AI 的安全性和可控性再次成为公众热议的焦点。
5/27/2025 10:01:25 AM
AI在线

前 OpenAI 政策负责人质疑公司 AI 安全叙事的变更

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。 他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。 OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。
3/7/2025 11:41:00 AM
AI在线
  • 1