AIGC宇宙 AIGC宇宙

DeepSeek

DeepSeek再好,还得先进行数据清洗!

数据分析师的日常,有大半时间都在和数据"搏斗"。 每当接到一份数据,第一反应往往是叹气: "这数据质量...又得清洗半天。 " 数据清洗就像是数据分析的"地基工程",地基不牢,上层再漂亮也会坍塌。
4/7/2025 12:30:00 AM

刚刚,DeepSeek公布推理时Scaling新论文,R2要来了?

这会是 DeepSeek R2 的雏形吗? 本周五,DeepSeek 提交到 arXiv 上的最新论文正在 AI 社区逐渐升温。 当前,强化学习(RL)已广泛应用于大语言模型(LLM)的后期训练。
4/4/2025 1:56:00 PM
机器之心

仅需10万不到,DeepSeek R1 671B大模型本地部署实战指南

最近帮一个朋友部署本地的671b版本的deepseek r1,需求是要完全本地部署,但是又不想花太高的成本,没有并发要求,我一想,用ktransformers框架来部署完全合适。 关于机器配置,在挑挑拣拣评比之后,设备选择如下,最终选择的是其中的服务器配置。 这套设备下来总成本不到10万,相比如动辄几百万的满血版deepseek R1或者花个五六十万买个deepseek 70b的一体机要值当的多,且不说70b并不是真正的deepseek r1,效果还不如32b的QWQ,就光说一体机的升级也是个麻烦事,买了机器基本就和模型绑定了,以后新模型出来后想升级就难了。
4/3/2025 3:57:48 PM
贝塔街的万事屋

机器学习|从0开发大模型之复现DeepSeek的aha moment

前面一篇文章介绍了《从0开发大模型之DeepSeek的GRPO》,并且实现了一个简单版本的 GRPO 代码,不过从工程领域来看,并没有复现DeepSeek-R1,于是最近申请了48G的显存,结合一些开源的方案复现aha monent,并给出完整的代码和工具链。  1、什么是 aha monent DeepSeek-R1 论文中提到,模型让作者「见证了强化学习的力量和美感」,在DeepSeek-R1-Zero的中间版本,「顿悟时刻」来了:模型学会了以人类的语气进行反思。 aha monent 2、使用什么的基座模型和训练数据 由于显卡只有48G,可以用基座模型Qwen2.5,模型大小:0.5B,1.5B,3B训练数据有很多:(可以直接在huggingface上找到)    a.AI-MO/NuminaMath-TIR:包括72K行的数学问题,解决方案和答案,是从 NuminaMath-CoT 数据集提炼出来的   b.
4/3/2025 3:46:53 PM
周末程序猿

机器学习|从0开发大模型之DeepSeek的GRPO

DeepSeek-R1的发布为国产大模型争光了(太强了),不过 GRPO 算法源自 DeepSeekMath 7B 模型,该模型在 MATH 基准测试中取得了优异成绩,论文发表于2024年2月份:,以下是该论文的摘要原文:复制翻译如下:复制对比数据1、什么是GRPOGRPO 是一种在线学习算法,核心思想是通过组内相对奖励来估计基线,从而避免使用额外的价值函数模型。 通过在训练期间使用受训模型自身生成的数据来迭代改进,GRPO 旨在最大化生成补全的优势,同时确保模型保持接近参考策略,下图是论文中的算法流程图:GRPOGRPO 是 PPO (Proximal Policy Optimization,近端策略优化,是一种强化学习算法,由OpenAI于2017年提出,旨在解决策略梯度方法中的训练不稳定问题) 的变体,主要区别是:GRPO 省略 value function modelGRPO 奖励计算,改成了一个 q 生成多个 r,然后 reward 打分GRPO算法流程:采样一组输出并计算每个输出的奖励对组内奖励进行归一化处理使用归一化后的奖励计算优势函数通过最大化目标函数更新策略模型迭代训练,逐步优化策略模型论文中的伪代码2、奖励设计huggingface 库提供 GRPOTrainer 可以直接使用 GRPO 训练,参数包括定义奖励模型和函数。 2.1 奖励模型复制这里的 reward_funcs 参数可以传入奖励模型。
4/3/2025 3:40:41 PM
周末程序猿

深度解析:通过 AIBrix 多节点部署 DeepSeek-R1 671B 模型

原文链接: AIBrix 分布式推理平台实现 DeepSeek-R1 671B 的多节点部署。 DeepSeek-R1 通过渐进式训练框架展现出优秀的逻辑推理能力 —— 在 6710 亿总参数量中,其动态激活的 370 亿参数与 128k 上下文窗口,使其在复杂任务处理中表现卓越。 然而,如此庞大的模型规模对部署环境提出了严苛挑战,尤其是分布式推理的资源调度与性能优化。
4/3/2025 6:30:00 AM
字节跳动开源

美国奥数题撕碎AI数学神话,顶级模型现场翻车!最高得分5%,DeepSeek唯一逆袭

3月26号,ETH等团队的一项研究一经发布,就引起了圈内热议。 这项研究彻底撕开遮羞布,直接击碎了「LLM会做数学题」这个神话! 论文地址:,MathArena团队使用最近的2025年美国数学奥林匹克竞赛进行了详细评估,结果令人大吃一惊——所有大模型的得分,都低于5%!
4/3/2025 2:25:00 AM
新智元

DeepSeek再度升级,厉害了!

当代的程序员,避免不了各种AI工具打交道,可以说,这些AI工具早已成为我们生活和工作的一部分。 从之前的ChatGpt,到今年年初开源的DeepSeek爆火,国产新锐 DeepSeek 犹如一匹黑马,将中国的 AI 技术从“追赶者”转变为“引领者”。 现在各个大厂也都纷纷部署了DeepSeek,我也把重心从国外的产品转向了国内 AI。
4/3/2025 1:25:00 AM
刘欣

基于DeepSeek + VSCode 实现AI辅助编程

随着人工智能技术的飞速发展,AI 辅助编程逐渐成为提升开发效率、优化代码质量的重要工具。 本文通过结合 DeepSeek 的强大语言模型和 VSCode 的高效开发环境,展示了如何利用 AI 辅助编程完成一个经典的 MapReduce 词频统计任务。 这一实践不仅展示了 AI 在编程中的应用潜力,还为开发者提供了一个高效、便捷的开发流程示例,帮助读者快速上手 AI 辅助编程,并探索其在实际项目中的应用价值。
4/3/2025 12:00:01 AM

2025美国最新奥数题,让大模型集体翻车,DeepSeek R1平均分也不到5%

当 AI 翻开奥数题,CPU 也烧了! 还记得那些被奥数题折磨得彻夜难眠的日子吗? 当你在凌晨三点对着一道几何证明题抓耳挠腮、怀疑人生的时候,你可能会想:「要是有个超级大脑能帮我解决这些问题该多好啊!
4/2/2025 6:15:00 PM
机器之心

7小时开发完成!北京语言大学团队好样的!国产大模型DeepSeek首次用于地震国际救援!

出品 | 51CTO技术栈(微信号:blog51cto)中国科技再立大功! 4月初,缅甸发生中部7.9级地震后,中国驻缅甸使馆称,前方在使用基于DeepSeek紧急开发的中缅英互译系统,据了解,该系统是国家应急语言服务团秘书处和北京语言大学迅速组建的语言服务支持团队开发出来的。 开发过程团队接到任务后争分夺秒,利用国产大模型DeepSeek仅仅七小时内就开发出中缅英三语实时互译系统,并紧急部署到救援人员的手机和终端设备上。
4/2/2025 4:07:07 PM

DeepSeek 首次用于地震国际救援,7 小时攻克缅甸救灾语言关

近日缅甸发生7.9级地震,中国团队用DeepSeek 7小时开发中缅英互译系统,助力救援。至今700余人使用该平台,这是中国大模型首用于地震国际救援。#DeepSeek #地震国际救援 #中缅英互译系统
4/2/2025 11:33:04 AM
远洋

DeepSeek 新专利公布:减少数据采集时网络资源消耗

可对未下载的链接进行质量推断,通过择优下载分配额度的方式,减少低质量网页下载和重复下载,提高数据质量及下载效率,减少在数据采集过程中网络资源的消耗。
4/2/2025 10:23:29 AM
清源

DeepSeek-V3击败R1开源登顶!杭州黑马撼动硅谷AI霸主,抹去1万亿市值神话

DeepSeek依然很能打,春节余波还在扩散! 据AI产品分析平台aitools.xyz统计,DeepSeek每月新增网站访问量超过了ChatGPT。 作为异军突起的现象级产品,DeepSeek的增长速度除了创造AI产品的增长奇迹,更是重新定义了全球的AI竞赛格局。
4/2/2025 9:21:00 AM
新智元

DeepSeek R1本地训练全流程实操指南,手把手教你打通其“任督二脉”

作者 | asher许多关于 DeepSeek R1 的复现文章,主要聚焦在“rewards的设计、训练指标的变化、benchmark测评”这些内容,但是对于“本地训练”这个开启深度探索的关键前置步骤,却很少有人深挖。 可能有人觉得,照着readme操作就能轻松训练了吧? 太天真啦!
4/2/2025 9:00:00 AM
腾讯技术工程

「DeepSeek-V3 技术解析」:无辅助损失函数的负载均衡

在混合专家模型(MoE)的实践中,负载不均衡俨然已成为制约模型性能提升的关键瓶颈之一。 传统的均衡策略往往需要引入复杂的辅助损失函数,不仅增加了训练的复杂度,还可能干扰模型的核心学习目标。 工程师们在提升模型效率的道路上,一直苦苦追寻着一个优雅而高效的平衡解决方案。
4/2/2025 2:17:00 AM
追求卓越的

DeepSeek-R1之后推理模型发展如何?Raschka长文梳理后R1时代14篇重要论文

近日,Deepseek R1 等一系列推理大语言模型已成为 2025 年最热门的话题之一。 在过去的几周里,研究人员推出了许多改进推理的新策略,包括扩展简单测试 - 时间规模化(S1)、关联思维链(Chain of Associated thoughts)、Inner Transformer 等方法。 不仅如此,还有来自腾讯实验室的研究人员探索了 Thoughts Are All Over the Place,通过衡量不正确答案中的 token 效率来鼓励模型对每条推理路径进行更深入的探索;来自美国马里兰大学和橡树岭国家实验室等机构联合提出了 Recurrent Block,通过重复调用同一个循环体的方式,在推理阶段可以迭代任意多次;以及来自美国 Zoom 视频通讯公司的研究团队提出了 Chain of Draft(CoD),基于更接近人类推理的提示策略提出了草稿图,这是一种优先考虑效率和推理的提示词策略。
4/1/2025 4:14:00 PM
机器之心

打工人自救指南:Manus+DeepSeek+Coze破局AI淘汰

前言2025年的中国AI竞技场中,三股技术浪潮正深度重构普通人的生存法则——DeepSeek让普通人年也能享受硅谷级智囊服务;Manus让小微企业人力成本直降70%(简历筛选、财务核算等);Coze的智能体孵化出了新兴职业(智能体架构师、智能体调教师等)。 当人们还在争论AI是否替代人类时,这三个现象级工具已悄然定义了智能技术的三种进化路径:认知突破、执行闭环与生态革命。 这场技术革命的核心分野,在于三者对人类能力的增强坐标差异:• DeepSeek强化认知维度:用强化学习与模型蒸馏技术,将专业决策的颗粒度细化至人类难以企及的层级(如投资策略模拟准确率达97.3%);• Manus重构执行范式:通过规划-执行-验证(PEV)架构,替代HR筛选、财务核算等流程性工作,实现企业人力成本大幅度降低;• Coze激活创新生态:其插件市场增长率达200%,催生“智能体调教师”“智能体架构师”等新职业,让技术民主化从口号变为现实。
4/1/2025 9:49:06 AM
后端小肥肠