混合专家模型(MoE)
大模型效率狂飙:字节COMET技术开源,提速1.7倍
字节跳动旗下豆包大模型团队近日宣布,成功攻克混合专家模型(MoE)架构的关键瓶颈,并开源一项名为COMET的重大优化技术。 该技术显著提升了大模型的训练效率,实现了高达1.7倍的效率提升,并有效降低了40%的训练成本。 图源备注:图片由AI生成,图片授权服务商Midjourney据介绍,COMET技术已在字节跳动的万卡集群训练中得到实际应用,累计节省了数百万GPU小时的训练算力。
3/10/2025 5:59:00 PM
AI在线
- 1
资讯热榜
OpenAI 宣布印度用户可享受一年免费 ChatGPT Go 服务
全网刷屏的「电影感」三宫格图片,教你用AI快速生成!
软银豪掷225亿美元加码OpenAI,AI音乐与超级融资计划全面提速
消息称软银批准对 OpenAI 追加 225 亿美元投资,助力未来上市
中小企业AI落地的算力“最优解”:一台插电即用的Mac mini
LLM 应用评估综合指南(多轮对话系统、RAG、AI Agent)
Transformer 之父“叛逃”:我已经受够了 Transformer!警告:AI研究变得越来越窄,我们需要找到新的架构
LLM近一半回答在扭曲真相!ChatGPT、Gemini,全部顶流模型统统中招!BBC研究:AI系统性错误把媒体拖下水,信任滑坡
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
Agent
AI for Science
芯片
苹果
腾讯
Stable Diffusion
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
研究
AI视频
生成
大语言模型
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
场景
深度学习
DeepMind
架构
生成式AI
编程
视觉
Transformer
预测
AI模型
伟达
亚马逊
MCP