AIGC宇宙 AIGC宇宙

腾讯Angel机器学习框架升级,支持单任务万卡级别超大规模训练,超300个腾讯产品及场景接入内测

作者:机器之心
2023-11-23 08:05
腾讯披露最新大模型训练方法,可节省50%算力成本。

在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。

11 月 23 日,腾讯披露,腾讯混元大模型背后的自研机器学习框架 Angel 再次升级,大模型训练效率提升至主流开源框架的 2.6 倍,千亿级大模型训练可节省 50% 算力成本。升级后的 Angel 支持单任务万卡级别超大规模训练,进一步提升腾讯云 HCC 大模型专属算力集群的性能和效率。

同时,Angel 还提供了从模型研发到应用落地的一站式平台,支持用户通过 API 接口或精调等方式快速调用腾讯混元大模型能力,加速大模型应用构建,腾讯会议、腾讯新闻、腾讯视频等超过 300 个腾讯产品及场景均已接入腾讯混元内测。

目前,相关能力已通过腾讯云对外开放。基于升级后的 Angel 机器学习框架,腾讯云 TI 平台可提供更优的训练和推理加速能力,并支持客户用自己的数据一站式训练精调,基于腾讯混元大模型打造专属智能应用。

自研机器学习框架升级,大模型训练推理效率再提升

随着大模型时代到来,模型参数呈指数级增长,达到万亿级别。大模型逐渐从支持单一模态和任务发展为支持多种模态下的多种任务。在这种趋势下,大模型训练所需算力巨大,远超单个芯片的处理速度,而多卡分布式训练通信损耗巨大。如何提高硬件资源利用率,成为影响国产大模型技术发展和实用性的重要前提。

面向大模型训练,腾讯自研了机器学习训练框架 AngelPTM,针对预训练、模型精调和强化学习等全流程进行加速和优化。AngelPTM 采用最新的 FP8 混合精度训练技术,结合深度优化后的 4D 并行和 ZeROCache 机制优化存储,可兼容适配多款国产化硬件,能够以更少的资源和更快的速度训练更大的模型。

2023 年 4 月,腾讯云面向大模型而生的新一代 HCC 高性能计算集群正式发布,性能较前代提升 3 倍。除了硬件的升级,针对大模型训练场景,HCC 对网络协议、通信策略、AI 框架、模型编译等进行系统级优化,大幅节约训练调优和算力成本。此前 AngelPTM 就已经通过 HCC 对外提供服务,本次 Angel 机器学习框架升级,也将进一步提升 HCC 大模型专属算力集群的性能,助力企业加速大模型落地。

模型参数的增大不仅给训练带来了挑战,还导致了推理成本的不断上升。为解决这一问题,腾讯自研的大模型推理框架 AngelHCF 通过扩展并行能力、采用多种 Attention 优化策略等方式对性能进行了提升。同时,框架还适配了多种压缩算法,以提高吞吐能力,从而实现更快的推理性能和更低的成本,支持大型模型推理服务。

相较于业界主流框架,AngelHCF 的推理速度提高了 1.3 倍。在腾讯混元大模型文生图的应用中,推理耗时从原本的 10 秒缩短至 3 至 4 秒。此外,AngelHCF 还支持多种灵活的大模型压缩和量化策略,支持自动压缩。

一站式应用构建,让大模型 “开箱即用”

作为实用级大模型,腾讯混元大模型从研发之初就面向应用场景而生,在实践中解决大模型落地难点。腾讯产品及应用种类多、流量大,让模型真正 “用起来” 挑战很大。基于 Angel,腾讯构建了大模型接入和应用开发的一站式平台,包含数据处理、精调、模型评估、一键部署以及提示词调优等服务,让大模型的 “开箱即用” 成为可能。

模型接入层面,腾讯混元大模型提供千亿、百亿、十亿多个尺寸的模型,充分适配各类应用场景的需求,只需要经过简单微调就能达到满足业务需求的效果,同时降低模型训练和推理服务的资源成本,在问答、内容分类等常见应用场景中具有更高的性价比。

应用开发层面,腾讯内部已有超过 300 项业务和应用场景接入腾讯混元大模型内测,相比上个月数量翻了一倍,覆盖文本总结、摘要、创作、翻译、代码等多个领域。

2023 年 9 月,腾讯自研的实用级大模型腾讯混元正式亮相并通过腾讯云开放。腾讯混元拥有超千亿参数规模,预训练语料超 2 万亿 tokens,聚合了腾讯在预训练算法、机器学习平台和底层算力资源多个层面的自研技术积累,并在应用中持续迭代,不断优化大模型能力。目前,已有来自零售、教育、金融、医疗、传媒、交通、政务等多个行业的客户,通过腾讯云接入腾讯混元大模型。

相关标签:

相关资讯

大模型进入「落地战」,腾讯云下手「行业」大模型

将行业需求转化为大模型课题。
6/20/2023 2:14:00 PM
机器之心

两句话,让 LLM 逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出 GPT、Claude 等重大缺陷

感谢IT之家网友 刺客 的线索投递!在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构 LAION 的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了 LLM 基准测试的盲区。一道简单的逻辑问题,竟让几乎所有的 LLM 全军覆没?对于人类来说,这个名为「爱丽丝梦游仙境」(AIW)的测试并不算很难 ——「爱丽丝有 N 个兄弟,她还有 M 个姐妹。爱丽丝的兄弟有多少个姐妹?」只需稍加思考,答案显而易见:M 1。(爱丽丝拥有的姐妹数量,再加上爱丽
6/10/2024 5:42:53 PM
浩渺

Llama 8B 搜索 100 次超越 GPT-4o,推理 + 搜索即可提升性能

最新论文表明,LLM 等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅 8B 的 Llama 3.1 模型搜索 100 次,即可在 Python 代码生成任务上达到 GPT-4o 同等水平。强化学习先驱、加拿大阿尔伯塔大学 CS 系教授 Rich Sutton 曾在 2019 年写下一篇名为《The Bitter Lesson》的博文,成为 AI 领域的经典论述之一。甚至,Rich Sutton 在字里行间体现出的直觉已经颇有 Scaling Law 的意味。原文地址: /
8/15/2024 11:52:28 PM
问舟
  • 1