AIGC宇宙 AIGC宇宙

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

作者:清源
2024-07-08 11:30
批评不仅能让人进步,也能让大模型的能力提升。OpenAI 就用这个思路造了个“找茬模型”CriticGPT。非常巧合的是,就在 CriticGPT 放出的前几天,北大联合千问等团队以类似的思路设计出了“数学专用版”CriticGPT。在无需训练的设置下,验证器能够在推理时辅助模型在 GSM8K 上的准确率从 86.6% 提升到 88.2%。在 GSM8K 数据集上,它可以让模型的准确率从 86.6% 提升到 88.2%。CriticGPT 的核心思路是在代码中故意设置 bug 并进行详细标注,然后用得到的数据训练出

批评不仅能让人进步,也能让大模型的能力提升。

OpenAI 就用这个思路造了个“找茬模型”CriticGPT。非常巧合的是,就在 CriticGPT 放出的前几天,北大联合千问等团队以类似的思路设计出了“数学专用版”CriticGPT。

在无需训练的设置下,验证器能够在推理时辅助模型在 GSM8K 上的准确率从 86.6% 提升到 88.2%。

在 GSM8K 数据集上,它可以让模型的准确率从 86.6% 提升到 88.2%。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

CriticGPT 的核心思路是在代码中故意设置 bug 并进行详细标注,然后用得到的数据训练出会 debug 的模型。

北大团队发现,这种方法不仅在代码当中有用,也能帮助语言模型解决数学问题

于是团队利用相似的思路,把代码换成数学问题,推出了“数学版 CriticGPT”——Math-Minos

用 GPT4 逐步提出修正意见

在数学推理领域,验证解决方案的正确性,是确保推理质量的关键步骤。

然而,现有的数学验证器大多依赖于二元分类标签进行训练,这种方式在提供正确或错误原因的解释上存在明显不足,无法给验证器提供足够充分的监督信号来训练。

Math-Minos 则克服了这一局限,提供了更深入的解释,极大地丰富了验证器的训练信息。

它引入了逐步的自然语言反馈作为理由标签,不仅指出了解决方案的正误,还能逐步分析出错误的原因。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

在自然语言反馈的获取上,研究团队一开始使用 GPT-4 生成训练数据,但通过实验发现,即使是 GPT-4,在逐步评价数学推理任务时也会出现一定比例的错误。

为了一定程度避免这个问题,研究人员通过在提示中引入步骤级别的二元分类标签,简化了 GPT-4 的任务,使得 GPT-4 能够更准确地生成评估。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

首先,通过监督式微调,使用自然语言反馈作为训练数据,有效提升了模型的评估能力。

其次,通过标准的 ORM(Outcome Reward Model,输出奖励模型)和 PRM(Process Reward Model,过程奖励模型)训练,实现了高效的推理,这种做法有两个好处。

一是通过两阶段训练,可以将二分类数据和监督微调数据解耦。

由于监督信号的稀疏性,训练二分类的数据往往远多于监督微调的数据,而研究发现,仅需要少量的监督微调数据,就可以很大程度提升模型的评估能力

另一方面,在验证器进行验证时,不需要显示地生成自然语言反馈,让推理过程更高效。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

ORM 任务表现明显提升

总得来看,研究人员在训练阶段添加了 30K 的自然语言反馈数据,为 Mistral-7B 验证器带来了数学能力的提升,在 Best-of-256 的实验设置下:

在 ORM 的设置下,MATH-Minos 将 Mistral-7B 的准确率在 GSM8K 数据集从 86.2% 提升到 87.3%,在 MATH 数据集从 35.9% 提升到 37.4%。

在 PRM 的设置下,MATH-Minos 将 Mistral-7B 的准确率在 GSM8K 数据集从 87.1% 提升到 87.6%,在 MATH 数据集从 36.7% 提升到 37.8%。

在与 Self-Consistency 结合的设置下,MATH-Minos 将 Mistral-7B 的准确率在 GSM8K 数据集从 87.1% 提升到 88.2%,在 MATH 数据集从 37.8% 提升到 38.6%。

在 ORM 和 PRM 任务设置中,Math-Minos 均展现出了优越的性能,特别是在 ORM 设置中,其改进更为显著。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

另外,研究团队还对生成器在步骤级别产生的错误进行了深入分析,将其归类为五种类型 —— 无关错误、累积错误、计算错误、逻辑错误和其他错误。

分析结果表明,在多步骤推理中,步骤错误的可能原因有很多种,而且模型在这些错误类型中都有可能出错,这进一步强调了引入自然语言反馈来指导模型学习的重要性。

实验发现,在两个数据集上,累积错误(即一个步骤的错误很可能直接导致所有后续步骤的错误)在所有错误类型中占到的比例最高。

不同数据集上的错误分布也有不同的特点,在相对简单的 GSM8K 上,计算错误更多;在更困难的 MATH 数据集上,逻辑错误更多。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

通过构建元评估集,研究团队评估了验证器在没有生成器影响下,准确判断最终答案的能力。

结果显示,Math-Minos 在训练过程中的元评估一致优于传统的 ORM,并且展现出更快的收敛速度和更精准的判断能力。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

同时实验结果也表明,Math-Minos 具有很强的 Scale Up 的潜力。

北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快

总之,Math-Minos 的开发不仅提升了数学验证器的性能,更为自然语言处理领域提供了一种新的训练范式。

研究团队希望这项工作能够启发未来研究,探索自然语言反馈与分类式验证器的潜在整合,推动大型语言模型在复杂推理任务上的能力。

论文地址:

https://arxiv.org/abs/2406.14024

GitHub:

https://github.com/KbsdJames/MATH-Minos

本文来自微信公众号:量子位(ID:QbitAI),作者:关注前沿科技

相关标签:

相关资讯

专给 ChatGPT“找茬”,OpenAI 训练 CriticGPT 模型以检索输出内容错误

感谢当地时间 27 日,OpenAI 宣布基于 GPT-4 训练了一个名为 CriticGPT 的模型,用于查找 ChatGPT 聊天机器人输出内容中的错误。它可以撰写评论,强调 ChatGPT 生成答案中不准确的地方。据介绍,CriticGPT 旨在协助人类 AI 训练员完成工作 —— 使用一种名为“从人类反馈中强化学习(IT之家注:Reinforcement Learning from Human Feedback,RLHF)”的技术来训练、改进 GPT-4 的回答。然而随着 ChatGPT 的准确性日益提升,
6/28/2024 7:10:36 AM
清源

百分点认知智能实验室:基于不完全标注样本集的信息抽取实践

编者按信息抽取是从文本数据中抽取特定信息的一种技术,命名实体识别(Named Entity Recognition, NER)是信息抽取的基础任务之一,其目标是抽取文本中具有基本语义的实体单元,在知识图谱构建、信息抽取、信息检索、机器翻译、智能问答等系统中都有广泛应用。基于监督学习的NER系统通常需要大规模的细粒度、高精度标注数据集,一旦数据标注质量下降,模型的表现也会急剧下降。利用不完全标注的数据进行NER系统的建立,越来越受到专家学者们的关注。第九届国际自然语言处理与中文计算会议(NLPCC 2020)针对此业
3/25/2021 2:12:00 PM
百分点科技

关键点检测项目代码开源了!

作者:闫永强,算法工程师,Datawhale成员 本文通过自建手势数据集,利用YOLOv5s检测,然后通过开源数据集训练squeezenet进行手部关键点预测,最后通过指间的夹角算法来判断具体的手势,并显示出来。文章第四部分为用C 实现整体的ncnn推理(代码较长,可先马后看)一、YOLOV5训练手部检测训练及部署思路类似表情识别,需要将handpose数据集标签改成一类,只检测手部,简化流程,更易上手。此部分数据集来源格物钛  ,具体的效果如图:本教程所用训练环境:系统环境:Ubuntu16.04cuda版本:
3/30/2022 6:11:00 PM
格物钛Graviti
  • 1