AIGC宇宙 AIGC宇宙

OpenAI 回应员工担忧:支持监管,必要保障措施到位前不发 AI 新技术

作者:故渊
2024-06-05 11:10
OpenAI 和谷歌 DeepMind 员工联名发声,担忧高级 AI 风险巨大,亟需加强监管,对此 OpenAI 今天发布声明,强调该致力于提供功能强大且安全的人工智能系统。IT之家翻译 OpenAI 公司官方声明内容如下:我们为自己能提供能力最强、最安全的人工智能系统而感到自豪,并坚信我们能以科学的方法应对风险。鉴于 AI 技术的重要性,我们认同公开信中的内容,如何通过严肃的讨论,对于更好推进 AI 技术发展至关重要。我们将继续接触各国政府、民间社会和世界各地的其他社区,共同营造和谐的 AI 环境。包括匿名诚信热

OpenAI 和谷歌 DeepMind 员工联名发声,担忧高级 AI 风险巨大,亟需加强监管,对此 OpenAI 今天发布声明,强调该致力于提供功能强大且安全的人工智能系统。

IT之家翻译 OpenAI 公司官方声明内容如下:

我们为自己能提供能力最强、最安全的人工智能系统而感到自豪,并坚信我们能以科学的方法应对风险。

鉴于 AI 技术的重要性,我们认同公开信中的内容,如何通过严肃的讨论,对于更好推进 AI 技术发展至关重要。

我们将继续接触各国政府、民间社会和世界各地的其他社区,共同营造和谐的 AI 环境。

包括匿名诚信热线、由董事会成员和公司安全领导者参与的安全与安保委员会( Safety and Security Committee)在内,都是监管 AI 的有效手段。

OpenAI 指出在必要的保障措施到位之前,公司不会发布新的 AI 技术。公司重申支持政府监管,并参与人工智能安全自愿承诺。

OpenAI 回应员工担忧:支持监管,必要保障措施到位前不发 AI 新技术

图源 Pixabay

对于报复行为的担忧,发言人证实,公司已解除了所有前员工的非贬损协议,并从标准离职文件中删除了此类条款。

相关标签:

相关资讯

AI再次突破安全红线,留给人类不到一年治理窗口

人工智能的发展与棋类游戏有着不解的缘分,从1962年跳棋程序首次战胜人类棋手,到1997年IBM深蓝击败国际象棋棋王,再到2016年阿法狗击败李世石,每一次AI浪潮都率先在棋盘上取得突破。 但是,AI最近在棋盘上的“炸裂”表现,却让全球科技行业不寒而栗。 根据Palisade Research一项最新AI安全研究,像OpenAI的o1-preview这样的新型AI在面对强大对手时,若察觉胜算渺茫,并不总是推枰认输,而是可能通过毫无底线的“作弊”手法翻盘——比如直接入侵对手系统,迫使对方自动放弃比赛。
2/27/2025 9:26:58 AM
佚名

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

感谢继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’
5/21/2024 1:43:20 PM
漾仔

阿尔特曼:OpenAI 公司为 AI 安全工作分配至少 20% 计算资源

感谢OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)昨日(8 月 1 日)在 X 平台发布推文,宣布为 AI 安全相关研究和开发工作,保障提供至少 20% 计算资源。AI在线翻译该推文内容如下:OpenAI 在 AI 安全方面的简要更新正如我们在 7 月下旬所说的,我们保障调配至少 20% 的计算资源,用于 AI 安全方面的工作。我们已经和美国人工智能安全研究所达成协议,让其提前访问我们的下一代基础模型,以便我们能够共同推动人工智能评估的科学发展。对此我们感到很兴奋!对于现任和前任员工能提出关于 AI
8/2/2024 2:46:50 PM
故渊
  • 1