AIGC宇宙 AIGC宇宙

阿尔特曼:OpenAI 公司为 AI 安全工作分配至少 20% 计算资源

作者:故渊
2024-08-02 02:46
感谢OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)昨日(8 月 1 日)在 X 平台发布推文,宣布为 AI 安全相关研究和开发工作,保障提供至少 20% 计算资源。AI在线翻译该推文内容如下:OpenAI 在 AI 安全方面的简要更新正如我们在 7 月下旬所说的,我们保障调配至少 20% 的计算资源,用于 AI 安全方面的工作。我们已经和美国人工智能安全研究所达成协议,让其提前访问我们的下一代基础模型,以便我们能够共同推动人工智能评估的科学发展。对此我们感到很兴奋!对于现任和前任员工能提出关于 AI
感谢OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)昨日(8 月 1 日)在 X 平台发布推文,宣布为 AI 安全相关研究和开发工作,保障提供至少 20% 计算资源。

阿尔特曼:OpenAI 公司为 AI 安全工作分配至少 20% 计算资源

AI在线翻译该推文内容如下:

OpenAI 在 AI 安全方面的简要更新

正如我们在 7 月下旬所说的,我们保障调配至少 20% 的计算资源,用于 AI 安全方面的工作。

我们已经和美国人工智能安全研究所达成协议,让其提前访问我们的下一代基础模型,以便我们能够共同推动人工智能评估的科学发展。对此我们感到很兴奋!

对于现任和前任员工能提出关于 AI 安全方面担忧,我希望为其提供“定心丸”。

我在此承诺,安全对于任何一家 AI 公司都至关重要,对于我们来说尤其如此,也是我们安全计划的重要组成部分。

我们于 5 月取消了针对现任和前任员工的非贬损条款以及赋予 OpenAI 取消既得股权权利(尽管从未使用过)的条款。我们一直在努力纠正这个问题。

相关标签:

相关资讯

GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致

【新智元导读】人大与浙大学者发现,GPT-4 对于论文给出的撤稿预测结果,竟然和人类审稿人有将近 95% 的相似性。看来大模型虽然有可能引发学术不端,但也有办法维护科研诚信啊。学术论文的撤稿事件时有发生,这不仅损害了科研诚信,也可能对公众信任和科学进展产生负面影响。传统上,学术界依赖同行评审和出版后的读者反馈来识别和纠正问题论文,但这些方法可能无法及时发现所有问题,尤其是在当前科研论文出版数量急剧增加的背景下。在这种情况下,如何快速识别存在问题的论文,并促进它们的撤稿,成了学术界亟待解决的一个难题。最近,来自中国人
4/15/2024 12:46:16 PM
清源

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

感谢继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’
5/21/2024 1:43:20 PM
漾仔

OpenAI 回应员工担忧:支持监管,必要保障措施到位前不发 AI 新技术

OpenAI 和谷歌 DeepMind 员工联名发声,担忧高级 AI 风险巨大,亟需加强监管,对此 OpenAI 今天发布声明,强调该致力于提供功能强大且安全的人工智能系统。IT之家翻译 OpenAI 公司官方声明内容如下:我们为自己能提供能力最强、最安全的人工智能系统而感到自豪,并坚信我们能以科学的方法应对风险。鉴于 AI 技术的重要性,我们认同公开信中的内容,如何通过严肃的讨论,对于更好推进 AI 技术发展至关重要。我们将继续接触各国政府、民间社会和世界各地的其他社区,共同营造和谐的 AI 环境。包括匿名诚信热
6/5/2024 11:10:02 AM
故渊
  • 1