AIGC宇宙 AIGC宇宙

12GB 显存可实现 128K 上下文 5 并发会话,IBM 预览 Granite 4.0 Tiny 模型

该模型采用混合 Mamba-2 / Transformer 架构,现有版本总参数规模为 7B、活动参数为 1B,可在消费级硬件上实现可用的体验。

IBM 本月 2 日介绍了其 Granite 4.0 系列模型中的最小版本之一:Granite 4.0 Tiny 的预览版本。

Granite 4.0 Tiny Preview 的优势在于高计算效率和低内存需求:在 FP8 精度下,运行 5 个 128KB 上下文窗口的并发对话仅需 12GB 显存,一张建议零售价 329 美元(AI在线注:现汇率约合 2383 元人民币)的英伟达 GeForce RTX 3060 12GB 消费级显卡即可满足。

12GB 显存可实现 128K 上下文 5 并发会话,IBM 预览 Granite 4.0 Tiny 模型

Granite 4.0 Tiny 计划的训练 Token 数至少为 15T,目前 Preview 预览版本仅训练了 2.5T,但已能提供与 12T 训练 Token 的 Granite 3.3 2B Instruct 相当的性能,同时在 128KB 上下文窗口 16 并发会话下内存需求降低了约 72%,预计最终性能可与 Granite 3.3 8B Instruct 相当。

12GB 显存可实现 128K 上下文 5 并发会话,IBM 预览 Granite 4.0 Tiny 模型

Granite 4.0 Tiny Preview 的总参数规模为 7B,实际活动参数为 1B,其基于被 Granite 4.0 系列全线采用的混合 Mamba-2 / Transformer 架构,结合了两者的速度与精度,降低了内存消耗而不明显损失性能。

Granite 4.0 Tiny 的预览版本现已在 Hugging Face 上以标准 Apache 2.0 许可证提供,IBM 将于今年夏天正式推出 Granite 4.0 系列模型的 Tiny 和 Small、Medium 版本。

相关资讯

IBM Granite 3.0模型:为大规模企业AI应用指明方向

IBM在企业AI领域做出了一系列颇为独特的探索。 蓝色巨人目前正在推动全栈技术布局,以自2020年来兴起的AI和混合云作为企业战略领域的两大基础性支柱,同时借鉴了自身在其产品组合中积累下的优势。 更重要的是,这套方案扭转了主要以AI概念验证为目标的总体趋势,转而专注于解决高度具体的业务用例,且执行效率更高。
11/6/2024 3:34:51 PM

IBM CEO:DeepSeek 证明我们是正确的,小型且高效的模型同样能有实际成果

“历史早有先例。计算机发展早期,存储和计算能力的成本高得惊人。然而,随着技术进步和规模效应,这些成本迅速下降,推动了计算机的普及和创新。”
2/7/2025 7:56:57 AM
清源

IBM 企业级 AI 开发平台 watsonx.ai 上线 DeepSeek R1 蒸馏模型

根据官方介绍,DeepSeek 还借助知识蒸馏技术,利用 R1 模型生成的数据优化了多个 Llama 和 Qwen 变体。
2/11/2025 12:36:07 PM
清源
  • 1