AIGC宇宙 AIGC宇宙

豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%

作者:清源
2025-02-12 12:58
实验结果表明,训练规模达 2000 万 value 的 UltraMem 模型,在同等计算资源下,可同时实现业界领先的推理速度和模型性能,为构建数十亿规模 value 或 expert 开辟了新路径。
感谢豆包大模型团队今日宣布,字节跳动豆包大模型团队提出了全新的稀疏模型架构 UltraMem,该架构有效解决了 MoE 推理时高额的访存问题,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%。该研究还揭示了新架构的 Scaling Law,证明其不仅具备优异的 Scaling 特性,更在性能上超越了 MoE。

实验结果表明,训练规模达 2000 万 value 的 UltraMem 模型,在同等计算资源下可同时实现业界领先的推理速度和模型性能,为构建数十亿规模 value 或 expert 开辟了新路径。

据介绍,UltraMem 是一种同样将计算和参数解耦的稀疏模型架构,在保证模型效果的前提下解决了推理的访存问题。实验结果表明,在参数和激活条件相同的情况下,UltraMem 在模型效果上超越了 MoE,并将推理速度提升了 2-6 倍。此外,在常见 batch size 规模下,UltraMem 的访存成本几乎与同计算量的 Dense 模型相当。

豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%

在 Transformer 架构下,模型的性能与其参数数量和计算复杂度呈对数关系。随着 LLM 规模不断增大,推理成本会急剧增加,速度变慢。

尽管 MoE 架构已经成功将计算和参数解耦,但在推理时,较小的 batch size 就会激活全部专家,导致访存急剧上升,进而使推理延迟大幅增加。

AI在线注:“MoE”指 Mixture of Experts(专家混合)架构,是一种用于提升模型性能和效率的架构设计。在 MoE 架构中,模型由多个子模型(专家)组成,每个专家负责处理输入数据的一部分。在训练和推理过程中,根据输入数据的特征,会选择性地激活部分专家来进行计算,从而实现计算和参数的解耦,提高模型的灵活性和效率。

相关标签:

相关资讯

字节跳动豆包UltraMem架构将大模型推理成本降低83%

字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。 这一突破性进展为大模型的高效推理开辟了新路径。 UltraMem架构在保证模型效果的前提下,成功解决了MoE架构推理时的访存瓶颈。
2/12/2025 2:04:00 PM
AI在线

豆包推出实时语音大模型:号称中文对话断崖式领先、情商智商均在线

据介绍,豆包实时语音大模型实现了语音理解和生成一体化,实现了端到端语音对话。相比传统级联模式,在语音表现力、控制力、情绪承接方面表现惊艳,并具备低时延、对话中可随时打断等特性。
1/20/2025 4:29:51 PM
清源

字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%

字节跳动豆包大模型团队官宣开源一项针对 MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。
3/10/2025 5:42:41 PM
远洋
  • 1