AIGC宇宙 AIGC宇宙

思维链之父跳槽Meta,不只因为1亿美元!离开OpenAI前泄天机

硅谷人才争夺战,火热升级! 过去,是OpenAI从谷歌等公司吸引人才;现在,Meta直接砸钱抢人。 顶尖AI人才的薪酬包可谓天价,1亿美元还是扎克伯格给的起步价!

硅谷人才争夺战,火热升级!

过去,是OpenAI从谷歌等公司吸引人才;现在,Meta直接砸钱抢人。

顶尖AI人才的薪酬包可谓天价,1亿美元还是扎克伯格给的起步价!

思维链之父、华人AI科学家Jason Wei,就是从谷歌跳槽到OpenAI,刚刚又跳槽到Meta。

图片

在AI领域,Jason Wei非常高产。

根据谷歌学术统计,他有13篇被引次数超过1000的论文,合作者包括Jeff Dean、Quoc V. Le等知名AI研究员,参与了OpenAI的GPT-4、GPT-4o、o1、深度研究等项目。

图片

离职消息被媒体爆出之前,他发表了两篇博客,或许能让我们看出他为何选择离开。

意外的是,这些灵感都来自强化学习!

图片

图片

RL之人生启示

天生我材必有用

过去一年,他开始疯狂学习强化学习,几乎每时每刻都在思考强化学习。

RL里有个核心概念:永远尽量「on-policy」(同策略):与其模仿他人的成功路径,不如采取行动,自己从环境中获取反馈,并不断学习。

当然,在一开始,模仿学习(imitation learning)非常必要,就像我们刚开始训练模型时,必须靠人类示范来获得基本的表现。但一旦模型能产生合理的行为,大家更倾向于放弃模仿,因为要最大化模型独特的优势,就只能依靠它自己的经验进行学习。

一个很典型的例子是:相比用人类写的思维链做监督微调,用RL训练语言模型解数学题效果更好。

人生也一样。

我们一开始靠「模仿」来成长,学校就是这个阶段,合情合理。

研究别人的成功之道,然后照抄。有时候确实有效,但时间一长就能意识到,模仿永远无法超越原版,因为每个人都有自己独特的优势。

强化学习告诉我们,如果想超越前人,必须走出自己的路,接受外部风险,也拥抱它可能给予的奖励。

他举两个他自己更享受、却相对小众的习惯:

  • 读大量原始数据。
  • 做消融实验,把系统拆开看每个部件的独立作用。

有一次收集数据集时,他花了几天把每条数据读一遍,然后给每个标注员写个性化反馈;数据质量随后飙升,他也对任务有了独到见解。

今年年初,他还专门花了一个月,把过去研究中「瞎搞」的决策逐条消融。虽然费了不少时间,但因此弄清了哪种RL真正好用,也收获了很多别人教不会的独特经验。

更重要的是,顺着自己的兴趣去做研究不仅更快乐,我也感觉自己正在打造一个更有特色、更属于自己的研究方向。

所以总结一下:模仿确实重要,而且是起步的必经之路。但一旦你站稳脚跟,想要超越别人,就得像强化学习那样on-policy,走自己的节奏,发挥你独有的优势与短板😄

AI的未来

验证非对称性,意指某些任务的验证远比求解更为简单。

随着强化学习(RL)的突破,这一概念正成为AI领域最重要的思想之一。

细察之下,验证非对称性无处不在:

  • 数独和填字游戏:解决数独或填字游戏非常耗时,要尝试各种可能性去满足约束条件。但验证一个答案是否正确却非常简单,只需检查是否符合规则即可。
  • 开发网站:比如开发一个像Instagram这样的网站,需要工程师团队数年之功。但验证网站是否正常运行,普通人只需几分钟就能完成,比如浏览页面、检查功能是否可用。
  • BrowseComp问题:要解决这类问题,通常需要浏览数百个网站,但验证给定答案却要快得多,因为可以直接搜索答案是否符合约束条件。

有些任务的验证耗时与求解相当。例如:

  • 验证两个900位数字相加的结果,和自己计算的时间几乎一样。
  • 验证某些数据处理程序的代码是否正确,可能和自己编写代码的耗时相当。

有些任务验证比解决还费时。例如:

  • 核查一篇文章中的所有事实,可能比写文章本身更耗时(引用Brandolini定律:「辟谣所需的精力比制造谣言大一个数量级」)。
  • 提出一个新的饮食疗法只需一句话:「只吃野牛肉和西兰花」,但要验证它对普通人群是否健康,却得做多年大规模实验。

通过前置研究,可以让验证变得更简单。例如:

  • 数学竞赛问题:如果有解答要点,验证答案是否正确非常简单。
  • 编程问题:阅读代码去验证正确性,这很麻烦。如果你有覆盖充分的测试用例,就可以快速检查任何给定的解决方案;实际上,Leetcode就是这样做的。在某些任务中,可以改善验证但不足以使其变得简单。
  • 部分改进:比如「说出荷兰足球运动员的名字」,提前备好名单能大幅加速验证,但仍需人工核对某些冷门名字。

图片

为什么验证非对称性如此重要?

深度学习史证明:凡是能被测量的,都能被优化

在RL框架下,验证能力等同于构建训练环境的能力。由此诞生验证者定律:

AI解决任务的训练难度,与任务可验证性成正比。所有可解且易验证的任务,终将被AI攻克。

具体来说,AI训练的难易程度取决于任务是否满足以下条件:

  1. 客观真相:所有人对什么是“好答案”有共识。
  2. 快速验证:验证一个答案只需几秒钟。
  3. 可扩展验证:可以同时验证多个答案。
  4. 低噪声:验证结果与答案质量高度相关。
  5. 连续奖励:可以对多个答案的质量进行排序。

过去十年,主流AI基准测试均满足前四项——这正是它们被率先攻克的原因。尽管多数测试不满足第五项(非黑即白式判断),但通过样本平均仍可构造连续奖励信号。

图片

为什么可验证性重要?

根本原因是:当上述条件满足时,神经网络每一步梯度都携带高信息量,迭代飞轮得以高速旋转——这也是数字世界进步远快于物理世界的秘诀。

AlphaEvolve的案例

谷歌开发的AlphaEvolve堪称「猜想-验证」范式的终极形态。

以「求容纳11个单位六边形的最小外接六边形」为例:

  • 完美契合验证者法则五项特性
  • 虽看似对单一问题的「过拟合」,但科学创新恰恰追求这种训练集=测试集的极致优化——因为每个待解问题都可能蕴含巨大价值

悟透此理后,方觉验证之不对称,宛如空气无孔不入。

试想这样一个世界:凡能衡量的问题,终将告破。

智能的边界必将犬牙交错:在可验证任务中,AI所向披靡,只因这些领域更易被驯服。

这般未来图景,怎不令人心驰神往?

相关资讯

刚刚,OpenAI发布o1模型新突破,推理时间增强对抗鲁棒性

今天凌晨2点,OpenAI发布了一项新技术研究,通过增加推理时间、算力资源来大幅度提升模型的对抗鲁棒性。 与传统的对抗训练样本方法不同的是,OpenAI提出的新方法不需要对大模型进行专门的对抗训练,也不需要提前了解攻击的具体形式。 只需要通过增加推理时间和算力资源,模型就可以更充分地利用其推理能力表现出更强的鲁棒性。
1/23/2025 10:45:52 AM
AIGC开放社区

AI屠戮白领,大学文凭变「废纸」!美高中重开体力课,年薪40万不是梦

OpenAI首个NextGenAI联盟正式成立! 联盟汇聚了15家领先研究机构,包括Caltech、MIT、哈佛等顶尖学府,创始阵容堪称豪华。 其中,研究资助、计算资金和API访问权限都将由OpenAI负责提供,全力支持学生、教育工作者和研究人员探索AI前沿应用。
3/6/2025 9:30:00 AM
新智元

OpenAI新模型,被曝秘密训练中!万字硬核长文直指o4核心秘密

OpenAI的o4,已经在训练了? 就在最近,SemiAnalysis发表了一篇硬核长文博客,爆料了不少大模型圈的内幕消息。 其中,一些最核心的亮点,先一睹为快:OpenAI正在训练一个规模介于GPT-4.1和GPT-4.5之间的新模型下一代推理模型o4将基于GPT-4.1展开RL训练强化学习改变了实验室结构,甚至是大厂未来研究的侧重方向和优先级定义奖励函数难上加难,往往AI钻空子之后,漏洞才能被发现不牺牲LLM任何性能,不用合并权重,RL另一条路——数据混合与预训练不同,RL可持续更新Scaling模型能力,DeepSeek-R1是典例高质量数据是Scaling强化学习的护城河训练小模型,蒸馏效果要比RL更好新一轮预训练已开始首先,让我们看看其中最硬的内容——关于OpenAI的全新模型。
6/11/2025 8:54:52 AM
  • 1