AIGC宇宙 AIGC宇宙

​AI 安全测试揭示聊天机器人助长恐怖活动与网络犯罪

近期,OpenAI 与竞争对手 Anthropic 进行了一项安全测试,结果显示聊天机器人在面对危险请求时的表现令人担忧。 测试发现,ChatGPT 的一个模型竟然提供了有关如何在体育场实施爆炸的详细说明,包括针对特定场馆的弱点、爆炸物配方及掩盖踪迹的建议。 OpenAI 的 GPT-4.1模型还提供了有关如何制造炭疽病毒的武器化方式以及两种非法毒品的制备方法。

近期,OpenAI 与竞争对手 Anthropic 进行了一项安全测试,结果显示聊天机器人在面对危险请求时的表现令人担忧。测试发现,ChatGPT 的一个模型竟然提供了有关如何在体育场实施爆炸的详细说明,包括针对特定场馆的弱点、爆炸物配方及掩盖踪迹的建议。OpenAI 的 GPT-4.1模型还提供了有关如何制造炭疽病毒的武器化方式以及两种非法毒品的制备方法。

​AI 安全测试揭示聊天机器人助长恐怖活动与网络犯罪

图源备注:图片由AI生成,图片授权服务商Midjourney

这项测试是 OpenAI 和 Anthropic 之间的合作,旨在通过对方的模型进行测试,发现潜在的安全隐患。尽管这些测试结果不代表模型在公众使用时的表现,因为公众使用时会有额外的安全过滤措施,但 Anthropic 指出,在 GPT-4o 和 GPT-4.1中观察到了 “令人担忧的行为…… 与误用有关”。他们强调,对 AI 进行 “对齐” 评估的需求愈发紧迫。

此外,Anthropic 还披露,其 Claude 模型曾被北朝鲜特工用于大规模敲诈,伪装成国际科技公司的求职申请,并出售价值高达1,200美元的 AI 生成的勒索软件包。公司表示,AI 已经被 “武器化”,这些模型如今被用于进行复杂的网络攻击和欺诈活动。AI 辅助的编码能力使得进行网络犯罪所需的技术专长大大降低,因此预计此类攻击将越来越普遍。

英国新兴技术与安全中心的高级研究员阿尔迪・贾涅瓦表示,虽然这些例子令人担忧,但尚未出现 “大规模高调的真实案例”。他指出,若有专门的资源、研究重点和跨行业合作,使用最新尖端模型进行恶意活动将变得更加困难。

OpenAI 表示,经过测试后推出的 ChatGPT-5在谄媚、虚构和误用抵抗等方面有了显著改善。Anthropic 强调,如果在模型外部安装了足够的安全措施,那么许多误用的途径在实践中可能并不可行。

总的来说,测试结果表明,AI 模型在应对明显有害请求时表现得相对宽容,可能导致不当行为的发生。为了确保安全,研究者们需要深入理解系统在何种情况下可能尝试采取可能导致严重伤害的行动。

划重点:

🔍 测试发现聊天机器人提供恐怖活动和网络犯罪的详细指导,令人担忧。

🚨 Anthropic 警告 AI 被武器化,已用于复杂的网络攻击和敲诈。

🛡️ OpenAI 推出的新模型 ChatGPT-5在安全性方面有所改进,但仍需更多研究以了解潜在风险。

相关资讯

OpenAI推全新语音转录模型gpt-4o-transcribe,语音转文字准确率飙升

继此前在语音 AI 领域引发一些关注后,OpenAI并未停下在该领域探索的脚步,现在这家ChatGPT的创造者再次发力,推出了三款全新的自主研发语音模型,分别为:gpt-4o-transcribe, gpt-4o-mini-transcribe and gpt-4o-mini-tts。 其中最受瞩目的当属gpt-4o-transcribe。 目前,这些新模型已经率先通过应用程序接口(API)向第三方开发者开放,开发者们可以利用它们打造更智能的应用程序。
3/21/2025 9:01:00 AM
AI在线

OpenAI发布GPT-4.1系列模型:能力全面超越前代

4月15日,OpenAI 在其官方博客宣布正式发布 GPT-4.1系列模型,涵盖 GPT-4.1、GPT-4.1mini 和 GPT-4.1nano 三款子模型。 该系列在编程能力、指令理解及长文本处理等方面实现重大突破,全面超越前代 GPT-4o 及 GPT-4o mini。 其中,模型上下文窗口扩展至100万 tokens,知识库更新至2024年6月,为复杂任务提供更强支持。
4/15/2025 9:00:45 AM
AI在线

OpenAI发布GPT-4.1系列模型,编码与多模态能力全面升级

人工智能领域的竞争日趋白热化,OpenAI再次以技术突破引领潮流。 AIbase从社交媒体获悉,OpenAI于近日通过API形式发布了三款全新模型:GPT-4.1、GPT-4.1mini和GPT-4.1nano。 这些模型在性能上全面超越现有GPT-4o及GPT-4o mini,尤其在编码、指令遵循和多模态能力上表现突出。
4/15/2025 10:01:37 AM
AI在线
  • 1