AIGC宇宙 AIGC宇宙

谷歌研究:合成数据使大模型数学推理能力提升八倍

作者:远洋
2025-04-08 12:40
最近,来自谷歌、卡内基梅隆大学和 MultiOn 的联合研究团队发表了一项关于合成数据在大型模型训练中应用的新研究。 据专注于人工智能发展的研究机构 Epoch AI 报告显示,目前全球约有 300 万亿个公开可用的高质量文本训练标记。 然而,随着类似 ChatGPT 这样的大模型的迅猛发展,对训练数据的需求呈指数级增长,预计到 2026 年之前,这些数据将被耗尽。

谷歌研究:合成数据使大模型数学推理能力提升八倍

最近,来自谷歌、卡内基梅隆大学和 MultiOn 的联合研究团队发表了一项关于合成数据在大型模型训练中应用的新研究。

据专注于人工智能发展的研究机构 Epoch AI 报告显示,目前全球约有 300 万亿个公开可用的高质量文本训练标记。然而,随着类似 ChatGPT 这样的大模型的迅猛发展,对训练数据的需求呈指数级增长,预计到 2026 年之前,这些数据将被耗尽。因此,合成数据成为了至关重要的替代方案。

据IT之家了解,研究人员主要探索了两种合成数据类型:正向数据和负向数据。正向数据是指由高性能大模型(如 GPT-4 和 Gemini 1.5 Pro)生成的正确问题解决方案,为模型提供解决数学问题的示例。但仅依靠正向数据进行训练存在局限性。一方面,这种方法可能无法完全揭示问题解决过程背后的逻辑,模型可能会通过模式匹配来学习,而缺乏真正的理解;另一方面,随着训练数据量的增加,模型可能会学到虚假的相关性,导致在处理新问题时泛化能力下降。

谷歌研究:合成数据使大模型数学推理能力提升八倍

鉴于此,研究人员引入了负向数据,即经过验证为错误的问题解决步骤。这有助于模型识别并避免错误,从而增强其逻辑推理能力。尽管使用负向数据存在挑战,因为错误的步骤可能包含误导性信息,但研究人员通过直接偏好优化(DPO)方法成功地使模型能够从错误中学习,强调了每个问题解决步骤的重要性。

DPO 方法为每个问题解决步骤分配一个优势值,反映其相对于理想解决方案的价值。研究表明,高优势步骤是正确解决方案的关键,而低优势步骤可能表明模型推理中存在问题。利用这些优势值,模型可以在强化学习框架内动态调整其策略,从而更高效地从合成数据中学习和改进。

为了验证合成数据的有效性,研究团队使用 DeepSeek-Math-7B 和 LLaMa2-7B 等模型,在 GSM8K 和 MATH 数据集上进行了全面测试。结果显示,经过正向和负向合成数据预训练的大模型在数学推理任务上的性能实现了八倍的提升。这一研究充分展示了合成数据在增强大模型逻辑推理能力方面的巨大潜力。

相关资讯

海豚语言被谷歌大模型破译!跨物种交流大门打开,哈萨比斯:下一个是狗

神奇! 人类和海豚真的能实现跨物种交流了? !
4/15/2025 9:53:52 AM
量子位

6周搞定18个月的工作量,爱彼迎不满老工具,暴力循环大模型怒迁代码,效果出奇好,怎么回事?谷歌亚马逊也做过类似的事

编辑 | 云昭Anthropic首席执行官Dario时不时就会出来发声,声称人工智能即将取代人工编码,或者抛出一个惊人的数字,预测在短短6个月内将有90%的编码工作将被AI取代。 这种措辞无疑有夸大的成分,但这里想说的是,这并非空穴来风,或许6个月内AI不会取代90%的程序员,但取代90%的编程工作不无可能! 因为企业接纳和适配大模型的速度远比我们想象得要快!
4/18/2025 4:05:39 PM
云昭

谷歌的“双子星”,正在围剿一众大模型

编辑 | 云昭继昨天凌晨OpenAI推出满血o3、o4-mini之后,没想到谷歌迈着“LLM王者”的步伐给出了自家的模型SOTA研究Gemini2.5 Flash。 如果说o3主打的是“干实事”,那么谷歌这次的新发布则是告诉我们:什么是“成本可控”的极致性价比。 这次的发布以后立马引来一众开发者的讨论,不过这次不是负面的,而是全面的好评。
4/18/2025 3:53:03 PM
云昭
  • 1