
前两天有一个有趣的事,真的太魔幻了,感觉剧本都不会写的这么巧。
就在前几天,DeepSeek 悄悄地上了一个新模型,DeepSeekMath-V2。
更多新模型动态:

一个基于 DeepSeek-V3.2-Exp-Base 构建的 685B 的数学专用模型。
这个模型特殊的点,说人话就是,它不仅能给出答案,还能自己检查自己的解题步骤,自己给自己挑错,自己跟自己辩论,直到它自己觉得自己整个推理过程,完美无瑕。
而且,能力上,达到了奥林匹克金牌水平。

并在 IMO 2025(解决了 5/6 道题)和 Putnam 2024(接近满分 118/120 分)等竞赛中表现出色。
同时,按照 DeepSeek 传统,直接开源+送论文。
论文名字很直接:《DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning》。
而我之所以说魔幻的原因在于。
就在 2 天前,大洋彼岸,被誉为 AI 教父之一、前 OpenAI 首席科学家 Ilya Sutskever,刚刚出来发声,录了一期播客。

在这期播客里,他抛出了一个非常有意思的担忧。
就是,现在的 AI 模型很奇怪。
一方面,它们在各种评测集上刷出了逆天的分数,什么考试、什么竞赛,都能名列前茅。
但另一方面,你把它扔到真实世界里去解决实际问题,它又蠢得让人想砸电脑。
他举了个例子,特别写实:
就是你让 AI 帮你修一个代码里的 bug A,它说“好嘞”,然后给你引入了一个新的 bug B。
你再让它修 bug B,它又说“没问题”,然后转身就把 bug A 又给改回来了。
就这么来来回回,修了半天修不好,我相信大家玩 vibe coding 的人,都遇到过这个问题。
Ilya 自己一直在思考,为什么会这样?为什么评测表现和真实世界表现之间,有这么大的鸿沟?
他在这个播客里面,给出了一个非常深刻的类比。
他说,现在的 AI 模型,就像一个特长生 A,这个学生的目标呢,就是成为最牛逼的算法竞赛选手。
于是他花了一万个小时,刷遍了所有竞赛题,背熟了所有解题技巧。最后,他确实成了这个领域的王者。
但还有一个通才生 B。他对竞赛也感兴趣,但只花了 100 个小时去练习,成绩也不错。
但他把更多的时间,花在了理解世界、广泛阅读、与人交流这些务虚的事情上。
Ilya 问:这两个学生,谁未来的职业发展会更好?
答案不言而喻,是学生 B。
因为学生 A 的强大,是一种应试的强大。
他的所有能力,都是为了在评测中拿高分这个单一目标而优化的。这种训练,就像把一个人的视野强行压缩成一根针,他在这根针里能看到原子,但在针以外的世界,他是个盲人。
而学生 B,他拥有一种更可贵的东西,Ilya 也不知道该怎么描述,所以他的原话就是“那股劲儿”(the "it"),一种更深刻的、更具泛化性的理解力。
所以,最后就会导致,经过重度 RL 对齐的模型往往显得更笨或更缺乏创造力,RL 强行让 AI 去讨好人类的某个单一指标,却可能牺牲了它原本宽广的通用智力。
其实最近一些大模型,比如 GPT-5、Gemini 3 Pro 在写作能力上的下降,我觉得就能看出一些端倪了。
Ilya 的这段话,还是引起了非常大的反响的。
然后,就在这个问题还余音绕梁的时候,DeepSeekMath-V2 来了。
直接说,我搞定了。
特别有意思。
可以说,DeepSeekMath-V2,已经开始解决 Ilya 的一些担忧了。
在讲 DeepSeekMath-V2 之前,我觉得还是先有必要,来聊聊以前的 AI 是怎么做数学题的。超级简单,也超级粗暴。
就是,结果导向。
就像一个公司的销售,老板只看你月底的业绩报表,不管你这单子是怎么签下来的。你用尽九牛二虎之力,还是用了一些肮脏的手段,还是瞎猫碰上死耗子,无所谓,只要最后那个数字是对的,模型就能得到奖励。
这种模式,在做一些简单的计算题时,问题不大。
但一旦涉及到复杂的证明题,就彻底废了。
我相信大家上学时肯定也都被数学老师折磨过,我自己最常听到的一句话,就是。。。
“答题是看过程的!你的过程呢?!”
一道大题 15 分,答案可能只占 2 分,剩下 13 分,全在过程里。

你就算最后答案蒙对了,过程一塌糊涂,照样拉胯。
因为数学这门学科,从本质上来说,它追求的就不是那个最终的答案,而是那个无懈可击、一步一响的逻辑链。
是从公理这个地基开始,一砖一瓦,盖起一座真理的大厦。
中间任何一环有瑕疵,整个大厦都会崩塌。
之前的 AI,就是这样的,你让他写出答案,他可能还真的没啥问题,但是你让他写证明过程,那就完特么蛋了,经常给你生编硬造。
甚至有时候,它给你的最终答案,是靠着某个计算失误+另一个逻辑错误负负得正,最后歪打正着搞出来的。
这就是过去 AI 的通病,你说他对了吧,他也真对了,但是你要是跟他在过程中较个真吧,那也经常错的离谱。
本质上,还是模型没有反思能力。
虽然模型有所谓的思维链,但是这个思维链,或者说这个逻辑,也分几个级别。
第一个级别,我称之为 Prompt 级 cosplay 反思。
就是你跟他说你要好好想一想,其实就是多写几句 CoT,训练时根本没强约束它真的检查过,这个就不说了,纯文案。
第二个级别,就是 OpenAI o1、DeepSeek R1 等等,有自己的思维链的,这种其实可以称为,答案导向的反思。
这类所谓的“reasoning model”的典型套路其实就是,用 RL 来奖励最后答案对不对,可以允许模型在中间多想、多分支、自己评估几个方案,再选一个。
这套模式你不能说他不行,确实很强,通过奖励最终答案的正确,一年内,确实把 AIME、HMMT 这种只看答案的竞赛打满分。
但有两个硬伤。
- 正确答案 ≠ 推理真的对,中间瞎算、走错路、蒙对都算赢。
- 像定理证明这种题,根本没有单一数值答案可以奖励,所以也就容易拉了。
而第三个级别,就是这次的 DeepSeekMath-V2,真正把过程当任务的反思。
这个点,也是源于 DeepSeek 对人的观察。

DeepSeekMath-V2 的做法,也很有意思,甚至有点精神分裂的哲学味。
他们其实搞了两个 AI 出来。
一个叫生成器(Generator)。这哥们儿就是那个天马行空、才华横溢的学生。你把题给他,他奋笔疾书,洋洋洒洒,给你写出一套解题过程。
另一个叫验证器(Verifier)。这哥们儿是个极其刻薄、吹毛求疵、毫无感情的老师。生成器写完的每一个字,都要经过它的审判。它就像拿着放大镜一样,逐行检查,寻找任何可能的逻辑漏洞、计算错误、概念不清。
然后,他们让验证器去当生成器的老师。生成器每写完一步,验证器就在旁边打分:
“你这里逻辑不严谨,扣分。”,“你这个公式用错了,扣分。”,“你这里跳步了,扣分。”
“生成器”为了得到老师也就是验证器的表扬,就必须不断地修改、完善自己的证明过程。
它慢慢地就学会了,不能只图快,每一步都得想清楚,都得有理有据。
经过这种反复的自我搏斗,AI 就不再是一个只会输出答案的机器了。
它开始拥有了一种真正的最宝贵的能力:
“反思”。
这个能力,也让 DeepSeekMath-V2 在证明题的能力上,碾压同行。

它不再盲目地相信自己的第一直觉。
在这个过程中,它学会了怀疑,学会了审视,学会了批判性思维。
而且,这还没完。
DeepSeek 觉得,这还不够精神分裂。所以,他们又来了一个更狠的:
元验证(Meta-Verification)。
大概就是,就是他们又搞了个总教导主任,这个主任不去看学生的卷子,而是去看老师批改的卷子有没有问题。
毕竟有时候,验证器这个老师也会犯错。
比如它可能会冤枉一个好学生,把对的步骤判成错的,或者自己老眼昏花,没发现学生隐藏得很深的错误。
元验证器的作用,就是确保验证器的每一次评判都是公平、准确、有效的。
这套组合拳下来,就形成了一个极其强大的正向循环:
- 生成器努力写出更完美的证明。
- 验证器在元验证器的监督下,变得越来越准确。
- 更强的验证器又能反过来训练出更强的生成器。
左脚蹬右脚,螺旋登天。
最终,他们把这两种能力,合二为一,注入到了同一个 AI 的身体里。于是,DeepSeekMath-V2 诞生了。
再看看它的成绩。
IMO(国际数学奥林匹克竞赛):这是全世界高中生的最高殿堂。DeepSeekMath-V2 在 2025 年的模拟赛里,6 道题解出了 5 道。金牌水平。
CMO(中国数学奥林匹克竞赛):中国最顶尖的数学竞赛。它也拿到了金牌水平的成绩。
最恐怖的是这个:Putnam Competition(普特南数学竞赛)。

这个竞赛,是全世界大学生数学竞赛里,公认的地狱难度。
它的题目,出的极其刁钻、深刻,因为难度过大,所以中位数得分通常为 0 或 1 分,而满分,是 120 分。。。。
说实话,在这种竞赛里,能考个十几二十分,就已经是人中龙凤了。
而去年的人类最高分,是 90 分。

而 DeepSeekMath-V2 的得分。
118 分。
在 12 道题里,它完整、严谨地解出了 11 道,还有 1 道也拿到了大部分分数。
太离谱了。
这就是知道学会反思,学会过程以后的,真正的 AI 的实力。
不知道为什么,让我想起了 Alpha GO。。。
DeepSeek 这篇论文,实际上是给 Ilya 的问题,提供了一个可能的答案:
也许,要弥合评测与现实的鸿沟,我们不应该再给 AI 增加更多的外部 RL 环境去刷题,而是应该教会 AI 一种向内看的能力。
让它从追求让别人满意(获得奖励),转变为追求让自己满意(逻辑自洽)。
王阳明的心学,其实很早就提过这个观点。
心即理,真理不在外部,而在我们每个人的内心。
真正的学习,不是向外寻求标准答案,而是向内致良知,达到一种内在的和谐与通透。
DeepSeekMath-V2,就是 AI 领域的一次非常有趣的,“致良知”。
有的时候我经常在想,人类的理性,到底是什么?
康德觉得,理性是人类为自然立法的能力。我们通过先验的逻辑框架去理解、整理这个混乱的世界。
我感觉,DeepSeekMath-V2,有一点像。
过去我们总觉得,AI 的智能和人类的智能,隔着一道鸿沟。
我们的智能里,有灵感、有顿悟、有情感、有那些说不清道不明的“Aha Moment”。
可也许,人类的灵感,只是我们大脑在算力不足的情况下,为了走捷径而产生的一种逻辑的跳跃。
而 AI,正在用我们无法想象的算力,把我们跳过的每一步,都踏踏实实地走一遍。
它走的,是一条更慢、更笨,但可能也更接近本质的道路。
我们,这些习惯于跳跃的物种,站在 AI 这条坚实的逻辑长梯面前,难免会感到一丝震撼,和一丝……迷茫。
那我们未来的位置。
又在哪里呢?