AIGC宇宙 AIGC宇宙

字节跳动豆包UltraMem架构将大模型推理成本降低83%

作者:AI在线
2025-02-12 02:04
字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。 这一突破性进展为大模型的高效推理开辟了新路径。 UltraMem架构在保证模型效果的前提下,成功解决了MoE架构推理时的访存瓶颈。

字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。这一突破性进展为大模型的高效推理开辟了新路径。

字节跳动抖音豆包大模型

UltraMem架构在保证模型效果的前提下,成功解决了MoE架构推理时的访存瓶颈。实验结果表明,在参数和激活条件相同的情况下,UltraMem不仅模型效果优于MoE,更将推理速度提升了2-6倍。此外,在常见batch size规模下,UltraMem的访存成本几乎与同计算量的Dense模型相当,显著降低了推理成本。

QQ20250212-140416.png

研究团队训练了规模达2000万value的UltraMem模型,实验结果显示,在同等计算资源下,该模型同时实现了业界领先的推理速度和模型性能。这一成果验证了UltraMem架构的优异Scaling特性,为构建数十亿规模value或expert模型奠定了技术基础。

随着大模型规模不断扩大,推理成本和速度成为制约其应用的关键因素。尽管MoE架构已实现计算与参数解耦,但其推理时的高访存需求导致延迟增加。UltraMem架构的提出,有效解决了这一难题,为大模型的规模化应用提供了新的技术选择。

相关资讯

豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%

实验结果表明,训练规模达 2000 万 value 的 UltraMem 模型,在同等计算资源下,可同时实现业界领先的推理速度和模型性能,为构建数十亿规模 value 或 expert 开辟了新路径。
2/12/2025 12:58:01 PM
清源

大模型效率狂飙:字节COMET技术开源,提速1.7倍

字节跳动旗下豆包大模型团队近日宣布,成功攻克混合专家模型(MoE)架构的关键瓶颈,并开源一项名为COMET的重大优化技术。 该技术显著提升了大模型的训练效率,实现了高达1.7倍的效率提升,并有效降低了40%的训练成本。 图源备注:图片由AI生成,图片授权服务商Midjourney据介绍,COMET技术已在字节跳动的万卡集群训练中得到实际应用,累计节省了数百万GPU小时的训练算力。
3/10/2025 5:59:00 PM
AI在线

别TM浪费算力了,这样才能最大限度发挥deepseek的潜能 - MOE

最近几周自学deepseek原理 应用 实践,一些成果,和大家分享:小众关心的,deepseek核心技术原理;大众关心的,提示词要怎么写;今天和大家聊聊,deepseek的核心机制之一的混合专家MOE。 什么是混合专家MOE? 混合专家,Miture of Experts,该模型思路不再追求大而全,转而追求多而专精。
2/10/2025 9:00:00 AM
58沈剑
  • 1