PalisadeResearch
OpenAI新模型o3首次出现 “拒绝自我关闭” 现象
最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。 这是首次观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。 此事件让 AI 的安全性和可控性再次成为公众热议的焦点。
5/27/2025 10:01:25 AM
AI在线
- 1
资讯热榜
假冒阿里云AI SDK遭恶意代码渗透,AI安全供应链面临新挑战
基于Gemini与Qdrant构建生产级RAG管道:设计指南与代码实践
NUS 推出 OmniConsistency:低成本实现图像风格化一致性,挑战 GPT-4o!
函数向量对齐技术,让大模型持续学习不“失忆”丨ICLR 2025
我国水利标准 AI 大模型正式发布,采用海量知识库 + DeepSeek / Qwen 双模型
英伟达 CEO 黄仁勋:中国的 Deepseek 和阿里通义千问是当前最佳开源模型
百度 AI 搜索宣布全面接入 DeepSeek R1 最新版,推理能力更强
AI 教父本吉奥宣布创建 “科学家 AI” 系统,致力于防范智能体欺骗
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
数据
谷歌
机器人
大模型
Midjourney
用户
智能
开源
微软
GPT
学习
Meta
图像
技术
AI创作
Gemini
论文
马斯克
Stable Diffusion
算法
代码
英伟达
Anthropic
芯片
生成式
蛋白质
开发者
腾讯
神经网络
研究
3D
生成
计算
Sora
训练
机器学习
苹果
智能体
AI设计
AI for Science
Claude
GPU
AI视频
华为
人形机器人
搜索
场景
百度
xAI
预测
大语言模型
伟达
深度学习
Transformer
字节跳动
Agent
模态
具身智能
神器推荐
LLaMA
文本
视觉
Copilot
算力
工具
驾驶
API
应用
大型语言模型
LLM
RAG
架构