AIGC宇宙 AIGC宇宙

AI安全指数

OpenAI、DeepMind 安全垫底!权威机构发布 AI 安全指数,呼吁行业紧急整改

非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。 结果显示,头部厂商在“生存风险控制”“安全流程披露”两项核心指标上集体不及格,行业平均得分仅为42/100,远低于欧盟《人工智能实践准则》要求。 报告要点- 风险评估:仅3家企业公开系统性风险识别方法;OpenAI、DeepMind 未披露“超级智能对齐”技术细节- 安全框架:缺乏跨部门安全官、红队演练记录与第三方审计,被批“承诺多、证据少”- 生存安全:所有受评公司均未给出“比人类更聪明系统”的明确控制与协调方案,被认定为“结构性弱点”- 信息透明:信息披露深度、可衡量性平均落后官方准则30个百分点FLI 倡议报告呼吁立即设立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果与独立审计;同时建议监管机构对通用人工智能(AGI)项目实施“上市前审批”制度,避免“先发布、后治理”。
12/4/2025 3:41:11 PM
AI在线