AIGC宇宙 AIGC宇宙

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

AI在线附相关链接如下:

  • Github:https://github.com/QwenLM/Qwen2.5-Coder

  • Huggingface:https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f

  • Modelscope:https://modelscope.cn/organization/qwen

  • 演示:https://huggingface.co/spaces/Qwen/Qwen2.5-Coder-demo

相关资讯

斯坦福权威报告盖章!阿里通义千问贡献排名全球第三!用算力优势重塑全球竞争格局!

近日,斯坦福大学人工智能研究所发布了《2025年人工智能指数报告》,为全球人工智能领域的发展提供了新的视角。 报告指出,阿里巴巴在全球重要大模型贡献中位居第三,成为中国科技公司的领军代表。 报告显示,2024年,中国在全球 AI 大模型中贡献了15项,而阿里巴巴的6个模型入选,紧随谷歌与 OpenAI 的7个模型之后。
4/13/2025 7:34:53 AM
AI在线

最受欢迎开源大模型,为什么是通义?

开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。 大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的训练费用据说超过 4600万美元,在大模型开源之前,大模型一直是那些有大量资金加持的大厂和明星创业公司才有资格碰的事情。 随着如 llama、Mistral、Falcon 这些开源先锋搅动了整个大模型竞争浪潮,那些没有AI积累的企业、大量中小公司团队,今天个人开发者,都能基于开源底座模型,用很低的成本训练、部署自己的专属模型,llama 这样的开源先锋也因此拥有一众拥趸。
9/29/2024 11:15:00 AM
张进

官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake

2024年6月,国内优质大模型应用月之暗面Kimi与清华大学MADSys实验室(Machine Learning, AI, Big Data Systems Lab)联合发布了以 KVCache 为中心的大模型推理架构 Mooncake。 通过使用以 KVCache 为中心的 PD 分离和以存换算架构,大幅提升大模型应用Kimi智能助手推理吞吐的同时有效降低了推理成本,自发布以来受到业界广泛关注。 近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。
11/28/2024 3:51:00 PM
新闻助手
  • 1