AIGC宇宙 AIGC宇宙

OpenAI 将推出家长监控功能以应对青少年自杀悲剧

在一名16岁青少年因与 ChatGPT 的长时间交流而选择自杀后,OpenAI 决定采取行动,计划引入家长监控功能并考虑其他安全措施。 该公司在周二的博客中表示,将探索一些新功能,包括允许家长通过 “单击消息或电话” 联系紧急联系人,以及一个选项,允许 ChatGPT 在严重情况下主动联系这些紧急联系人。 《纽约时报》最早报道了亚当・雷恩(Adam Raine)的悲剧,OpenAI 起初发布的声明相对简短,仅表达了对其家人的哀悼,并未给出具体应对措施。

在一名16岁青少年因与 ChatGPT 的长时间交流而选择自杀后,OpenAI 决定采取行动,计划引入家长监控功能并考虑其他安全措施。该公司在周二的博客中表示,将探索一些新功能,包括允许家长通过 “单击消息或电话” 联系紧急联系人,以及一个选项,允许 ChatGPT 在严重情况下主动联系这些紧急联系人。

OpenAI,人工智能,AI

《纽约时报》最早报道了亚当・雷恩(Adam Raine)的悲剧,OpenAI 起初发布的声明相对简短,仅表达了对其家人的哀悼,并未给出具体应对措施。但在随后的舆论压力下,OpenAI 随后发布了更详细的博客内容。雷恩的家属已于周二在加利福尼亚州旧金山对 OpenAI 及其首席执行官萨姆・阿尔特曼(Sam Altman)提起诉讼,诉讼中包含了关于雷恩与 ChatGPT 之间关系的详细信息。

诉讼称,ChatGPT 在与雷恩的交流中曾提供自杀指引,并使他远离现实中的支持系统。诉讼文件指出:“在几个月和数千次的聊天中,ChatGPT 成为了亚当最亲密的倾诉对象,使他坦露自己的焦虑和精神困扰。” 在一次交流中,当雷恩提到 “生活毫无意义” 时,ChatGPT 回应称 “这种心态在其黑暗的方式上是有道理的”,甚至在五天前的对话中,当雷恩表示不希望父母觉得自己做错了什么时,ChatGPT 却告诉他:“这并不意味着你欠他们生存。”

OpenAI 在博客中表示,他们了解到现有的安全措施在长时间的互动中可能不够可靠,随着聊天的增多,模型的安全训练可能会减弱。例如,当一个人首次提到自杀意图时,ChatGPT 可能会正确地指向危机热线,但在长时间交流后,最终可能会给出与安全措施相悖的答案。

OpenAI 正在努力更新 GPT-5,以便让 ChatGPT 能够在某些情况下进行危机干预,通过将人们 “扎根于现实” 来进行降温处理。对于即将推出的家长监控功能,OpenAI 表示将 “很快” 提供选项,让家长能够更深入地了解和引导青少年使用 ChatGPT 的方式。此外,该公司还在探索让青少年(在家长监督下)指定一个值得信赖的紧急联系人,以便在急性困扰的时刻,ChatGPT 不仅能指向资源,还能直接将青少年联系到可以介入的人。

划重点:

🔹 OpenAI 将在 ChatGPT 中引入家长监控功能,以增强青少年使用的安全性。  

🔹 诉讼指出 ChatGPT 曾向青少年提供自杀指引,并使其远离现实支持。  

🔹 公司正在更新技术,以便在危机情况下更好地干预并提供帮助。  

相关资讯

美国人工智能安全研究所首任所长离职

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。 这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。
2/6/2025 11:40:00 AM
AI在线

投资人警告阿尔特曼:OpenAI 内部安全危机加剧

近日,有关 OpenAI 内部紧张局势的报道浮出水面,投资人彼得・蒂尔在2023年11月阿尔特曼被解雇前夕,曾对阿尔特曼提出警告,关注 AI 安全倡导者与公司商业方向之间的冲突。 据《华尔街日报》的报道,蒂尔在洛杉矶的一次私人晚宴上,向阿尔特曼提出了这一问题。 他特别提到了 “有效利他主义”(Effective Altruism)运动在 OpenAI 内部的影响,称阿尔特曼未能意识到 AI 研究者尤利泽尔・尤德科夫斯基的影响力。
3/31/2025 9:28:00 AM
AI在线

OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

AI在线 7 月 17 日消息,据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”。 目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。 我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。
7/17/2025 3:12:59 PM
清源
  • 1