AIGC宇宙 AIGC宇宙

北大团队提出全新框架LIFT 将长上下文知识注入模型参数

作者:AI在线
2025-03-17 03:59
北京大学张牧涵团队提出了一种全新的框架——Long Input Fine-Tuning (LIFT),通过将长输入文本训练进模型参数中,使任意短上下文窗口模型获得长文本处理能力。 这一方法颠覆了传统的长文本处理思路,不再专注于无限扩充上下文窗口,而是将长文本知识内化到模型参数中,类似于人类将工作记忆转化为长期记忆的过程。 目前大模型处理长文本面临两大主要挑战:传统注意力机制的平方复杂度导致处理长文本时计算和内存开销巨大 模型难以理解散落在长文本各处的长程依赖关系现有的解决方案如RAG和长上下文适配各有局限:RAG依赖准确的检索,容易引入噪声导致幻觉 长上下文适配的推理复杂度高,上下文窗口仍然有限LIFT的技术创新LIFT框架包含三个关键组件:动态高效的长输入训练通过分段的语言建模将长文本切分为有重叠的片段 避免因过长上下文造成的推理复杂度提升和长程依赖丢失 训练复杂度对长文本长度呈线性增长 平衡模型能力的门控记忆适配器设计专门的Gated Memory Adapter架构 动态平衡原始模型的In-Context Learning能力和对长输入的记忆理解 允许模型根据查询自动调节使用多少LIFT记忆的内容辅助任务训练通过预训练LLM基于长文本自动生成问答类辅助任务 补偿模型在切段训练中可能损失的能力 帮助模型学会应用长文本中的信息回答问题实验结果LIFT在多个长上下文基准测试上取得显著提升:LooGLE长依赖问答:Llama38B的正确率从15.44%提升至29.97% LooGLE短依赖问答:Gemma29B的正确率从37.37%提升至50.33% LongBench多项子任务:Llama3通过LIFT在5个子任务中的4个有明显提升消融实验表明,Gated Memory架构相比使用PiSSA微调的原模型,在LooGLE ShortQA数据集上的GPT-4score提升了5.48%。

北京大学张牧涵团队提出了一种全新的框架——Long Input Fine-Tuning (LIFT),通过将长输入文本训练进模型参数中,使任意短上下文窗口模型获得长文本处理能力。这一方法颠覆了传统的长文本处理思路,不再专注于无限扩充上下文窗口,而是将长文本知识内化到模型参数中,类似于人类将工作记忆转化为长期记忆的过程。

image.png

目前大模型处理长文本面临两大主要挑战:

传统注意力机制的平方复杂度导致处理长文本时计算和内存开销巨大 模型难以理解散落在长文本各处的长程依赖关系

现有的解决方案如RAG和长上下文适配各有局限:

RAG依赖准确的检索,容易引入噪声导致幻觉 长上下文适配的推理复杂度高,上下文窗口仍然有限

LIFT的技术创新

LIFT框架包含三个关键组件:

动态高效的长输入训练

通过分段的语言建模将长文本切分为有重叠的片段 避免因过长上下文造成的推理复杂度提升和长程依赖丢失 训练复杂度对长文本长度呈线性增长

image.png

 平衡模型能力的门控记忆适配器

设计专门的Gated Memory Adapter架构 动态平衡原始模型的In-Context Learning能力和对长输入的记忆理解 允许模型根据查询自动调节使用多少LIFT记忆的内容

辅助任务训练

通过预训练LLM基于长文本自动生成问答类辅助任务 补偿模型在切段训练中可能损失的能力 帮助模型学会应用长文本中的信息回答问题

image.png

实验结果

LIFT在多个长上下文基准测试上取得显著提升:

LooGLE长依赖问答:Llama38B的正确率从15.44%提升至29.97% LooGLE短依赖问答:Gemma29B的正确率从37.37%提升至50.33% LongBench多项子任务:Llama3通过LIFT在5个子任务中的4个有明显提升

消融实验表明,Gated Memory架构相比使用PiSSA微调的原模型,在LooGLE ShortQA数据集上的GPT-4score提升了5.48%。

局限与未来发展方向

尽管LIFT取得了显著成果,仍存在一些局限:

对需要精确信息提取的"大海捞针"任务效果仍不理想 模型对LIFT获得的参数化知识提取能力有待优化 辅助任务的设计严重依赖下游测试任务,通用性有限 如何更好地平衡记忆和原有能力仍是研究重点

研究团队鼓励社区共同探索LIFT在更广泛的训练数据、更丰富的模型、更先进的辅助任务设计以及更强计算资源支持下的潜力。

结论

LIFT提供了一个全新的长文本处理范式,将上下文知识转化为参数化知识,这一思路与人类短期记忆转化为长期记忆的过程相似。虽然距离彻底解决长上下文挑战仍有距离,但LIFT开辟了一个极具潜力的研究方向。

论文地址:https://arxiv.org/abs/2502.14644

相关资讯

北京大学联合华为发布全栈开源 DeepSeek 推理方案

据介绍,该方案基于北大自研 SCOW 算力平台系统、鹤思调度系统,并整合 DeepSeek、openEuler、MindSpore 与 vLLM / RAY 等社区开源组件,实现华为昇腾上的 DeepSeek 高效推理,并支持大规模算力集群训推一体化部署。所有开发者均可获取源码并根据需求二次开发,性能接近闭源方案。
3/10/2025 7:19:34 AM
归泷(实习)

沙利文发布权威报告:商汤科技GenAI技术栈市场综合能力位居国内第一

创新实力强、应用落地广,GenAI(生成式AI)技术栈领域,商汤科技位居国内榜首! 近日,权威研究机构弗若斯特沙利文(Frost & Sullivan, 简称“沙利文”)联合头豹研究院发布《2024年中国GenAI技术栈市场报告》,商汤科技在11个GenAI厂商中超越阿里云、百度智能云和华为云,增长指数和创新指数均排名国内第一,在全球排名中仅次于亚马逊云科技。 报告认为,商汤积极投入技术创新,致力于为用户提供行业领先的自研模型与高性能国产化的推理引擎,同时建立了包含机器与人工审核、安全评测与内容安全策略迭代升级等在内的完整性安全管理方案,是GenAI技术栈领域的领导者。
12/30/2024 4:09:00 PM
新闻助手

全球首个亿级参数量地震波大模型今年对外开放

全球首个亿级参数量地震波大模型“谛听”在国家超级计算机成都中心发布第三阶段测试版本,该大模型 2025 年将开放微调、推理框架和配套的数据处理流程,用户可在超算平台直接使用“谛听”用于业务分析和科学研究。
1/19/2025 1:46:30 PM
归泷(实习)
  • 1