FlashMLA
DeepSeek FlashMLA:大模型推理的“涡轮增压器”
FlashMLA(Flash Multi-head Latent Attention)是DeepSeek针对英伟达Hopper架构GPU(如H800/H100)设计的高效解码内核,其核心技术围绕多头潜在注意力(MLA)机制展开,通过软硬件协同优化实现性能突破
2/25/2025 9:08:12 AM
AI在线
DeepSeek开源周“第一刀”砍向算力!重磅开源FlashMLA,挑战H800算力极限,网友直呼:极致的工程设计!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)上周五,DeepSeek刚刚预告了重磅开源周! 周一一早,DeepSeek就履行承诺,开源了针对 Hopper GPU 的高效 MLA 解码内核——FlashMLA! 图片根据DeepSeek介绍,FlashMLA内核针对变长序列进行了优化,是已投入生产的核心技术。
2/24/2025 12:52:46 PM
伊风
DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈
就在刚刚,DeepSeek放出了开源周首日的重磅炸弹——FlashMLA。 这是DeepSeek专为英伟达Hopper GPU打造的高效MLA解码内核,特别针对变长序列进行了优化,目前已正式投产使用。 经实测,FlashMLA在H800 SXM5平台上(CUDA 12.6),在内存受限配置下可达最高3000GB/s,在计算受限配置下可达峰值580 TFLOPS。
2/24/2025 11:32:57 AM
dream
刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中
上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。
2/24/2025 10:28:00 AM
机器之心
DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s
DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。
2/24/2025 10:18:00 AM
AI在线
- 1
资讯热榜
Lovart 实战深度测评!仅需4小时帮你完成一整套品牌全案设计!
OpenAI 董事会主席:如果你想快速烧掉百万美元,就开发自己的 AI 模型吧
腾讯Robotics X具身智能开放平台Tairos发布,融合左脑、右脑、小脑
业界首个,腾讯混元 3D 世界模型正式发布并开源
奥尔特曼警告:把 ChatGPT 当作心理治疗师并不安全,对话内容不受法律保护
WAIC 2025 主论坛演讲 | MiniMax 创始人闫俊杰:每个人的 AI
8个月1亿美元ARR神话:Lovable是如何"干翻"OpenAI和Cursor的?
基于 DeepSeek 大模型,河南引入“AI 智审”系统实现货物口岸通关申报“秒级”筛查
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
Anthropic
英伟达
代码
算法
Stable Diffusion
训练
芯片
开发者
蛋白质
腾讯
生成式
LLM
苹果
Claude
神经网络
AI新词
3D
研究
机器学习
生成
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
具身智能
字节跳动
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
架构
模态
应用