AIGC宇宙 AIGC宇宙

理论

X和OpenAI加入Rust重写潮!马斯克宣布:基于Rust的X有了“比特币风格加密”,惨被币圈技术大佬群嘲:根本不懂!

马斯克又放大招了——这次轮到 X 也加入 Rust 重写潮了! 他宣布,X 内置的私信功能 XChat 已经完成 Rust 重构,并声称采用了“比特币风格加密”。 图片这句“比特币风格加密”,听上去是一种“不明觉厉”的术语,普通用户只觉得大概是更安全了,而玩币圈的技术党则一头雾水。
6/3/2025 1:00:12 PM
云昭

逆向工程:ChatGPT 的记忆是如何工作的

这篇文章是名为eric 工程师对ChatGPT记忆系统的深度逆向工程和技术实现推测。 它详细拆解了“可保存记忆”和包含“当前会话历史”、“对话历史”、“用户洞察”三个子系统的“聊天历史”,分析了它们的工作原理、可能的实现方案(如向量数据库、聚类算法),并探讨了这些记忆系统如何显著提升ChatGPT的用户体验,认为“用户洞察”是体验提升的关键文章深度剖析了“用户洞察”(User Insights)高级记忆系统,分析了ChatGPT如何从你的多轮对话中自动学习、总结你的专业背景(如对Rust编程的深入理解)、知识领域乃至沟通偏好,并附上置信度和时间范围,悄然注入后续对话的上下文中。 这正是ChatGPT能提供“千人千面”且高度相关回复的核心秘密地址:,这里做一个重点梳理ChatGPT的记忆系统:不止一种,而是一套组合拳Eric发现,ChatGPT的记忆并非单一系统,而是主要由两大部分构成:“可保存记忆(Saved Memory)”和“聊天历史(Chat History)”。
6/3/2025 9:08:49 AM

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

最近,微软亚研院的研究团队开源了原生1bit精度的大模型:BitNet b1.58 2B4T。 还没过几天,原班人马带着第二代BitNet v2来了! 这次性能几乎0损失,但占用内存和计算成本显著降低!
6/3/2025 8:49:00 AM

函数向量对齐技术,让大模型持续学习不“失忆”丨ICLR 2025

LLMs为什么总是灾难性遗忘? 原来是功能激活在搞怪。 最近来自中国科学技术大学、香港城市大学和浙江大学的联合研究团队,通过对多个语言模型、任务序列和评估指标的系统分析,终于破解了LLMs的灾难性遗忘之谜——遗忘行为具有高度的模型依赖性,而导致遗忘发生的本质却是功能激活的变化。
6/3/2025 8:35:00 AM

AI记忆系统首获统一框架!6大操作让大模型拥有人类记忆能力

当AI不再只是“即兴发挥”的对话者,而开始拥有“记忆力”——我们该如何重新定义智能? 来自香港中文大学、爱丁堡大学、香港科技大学与华为爱丁堡研究中心的研究团队联合发布了一项关于AI记忆机制的系统性综述,旨在在大模型时代背景下,重新审视并系统化理解智能体的记忆构建与演化路径。 大语言模型(LLMs)正快速从纯文本生成工具演化为具有长期交互能力的智能体。
6/3/2025 8:32:00 AM

o3崛起,但推理模型离「撞墙」只剩一年?

最多一年,推理模型就会撞上训练算力的「天花板」。 OpenAI的o3这样的推理模型,诞生还不到一年,能力已经突飞猛进。 OpenAI的研究人员非常乐观地认为,这种趋势会持续下去。
6/3/2025 8:26:00 AM

为什么非要做Agent?我用传统方法也能实现啊!

"我硬编码10分钟就能搞定的功能,你用Agent折腾半天还不稳定,图啥? " 技术群里,老王又开始质疑我们的Agent项目了。 作为一个写了15年代码的资深工程师,他的话很有代表性。
6/3/2025 6:39:54 AM
大数据AI智能圈

AI大模型踩过的坑,每一个都价值千万

看着你们公司几十台服务器嗡嗡作响,显卡温度报警声此起彼伏,老板又在催问"大模型什么时候能上线? " 这个熟悉的场景,是不是让你想起了那句话——"理想很丰满,现实很骨感"。  训练一个千亿参数的大模型,好比盖一栋摩天大楼。
6/3/2025 6:30:05 AM
大数据AI智能圈

基于Gemini与Qdrant构建生产级RAG管道:设计指南与代码实践

一、RAG技术的核心价值与应用场景在人工智能领域,检索增强生成(Retrieval-Augmented Generation, RAG)正成为解决大语言模型(LLM)知识更新滞后、生成内容不可追溯等问题的关键技术。 传统的微调(Fine-Tuning)方法将知识固化在模型参数中,难以应对动态领域的快速变化;而RAG通过将检索与生成解耦,实现了知识的实时更新与可追溯性,尤其适用于政策频繁变动、对准确性要求极高的场景,如医疗、法律和航空管理。 本文以构建机场智能助理为例,结合Google的Gemini多模态模型与Qdrant向量数据库,详细阐述如何设计并实现一个高可靠、可扩展的生产级RAG管道。
6/3/2025 2:55:00 AM
大模型之路

阿里发布 QwenLong-L1 超长文本杀器!已开源、支持 120k 长上下文、具备“翻书回溯”能力

业界普遍认为AI上下文越长越好,但这存在一个核心矛盾:模型能“吞下”海量信息,却难以真正“消化”。 面对长文,它们会忘记要点、无法深入推理,这已成为一大瓶颈。 例如,AI 能记住第1页的内容,同时理解第100页的观点,并将两者联系起来进行推理吗?
6/3/2025 12:00:09 AM

专治AI生图「人脸崩坏」,8倍速碾压GPT!新版FLUX.1多方位刷新SOTA

用AI生成&编辑图片时,想生成一套完整故事模板,结果主角「变脸」比翻书还快,这可怎么办? 别慌,全新图像模型FLUX.1 Kontext来了! 支持上下文内图像生成,可以同时使用文本和图像进行提示,并能够无缝提取和修改视觉概念,从而生成新的、连贯的图像。
5/30/2025 2:28:10 PM
新智元

博士级AI智能体写的论文,首次登上顶会ACL!人类作者只是监工

有个叫Zochi的AI系统写了一篇研究论文,并且被顶级学术会议ACL 2025的主会场接受了! ACL是自然语言处理(NLP)领域里最顶尖的会议之一。 Zochi是Intology AI开发的首个博士级智能体,就像一个从头到尾完成科学研究「AI科学家」。
5/30/2025 9:15:00 AM

AI仅凭“自信”学会推理,浙大校友复刻DeepSeek长思维链涌现,强化学习无需外部奖励信号

复刻DeepSeek-R1的长思维链推理,大模型强化学习新范式RLIF成热门话题。 UC Berkeley团队共同一作Xuandong Zhao把这项成果称为:大模型无需接触真实答案,仅通过优化自己的信心,就能学会复杂推理。 具体来说,新方法完全不需要外部奖励信号或标注数据,只需使用模型自身的置信程度作为内在奖励信号。
5/30/2025 9:05:00 AM

DeepSeek免费超越GPT-4?

DeepSeek 最新发布了 R1-0528 版本,这次更新的最大亮点是"深度思考"能力大幅提升。 很简单:进入 DeepSeek 官网、APP 或小程序,在对话界面开启"深度思考"功能即可。 图片API 接口也同步更新,调用方式保持不变。
5/30/2025 7:40:56 AM
程序员NEO

DeepSeek-R1小升级!体验后有被惊艳到

今年1月,DeepSeek-R1横空出世,凭借在性能和成本方面展现出的巨大优势,迅速成为全球人工智能(AI)领域瞩目的焦点。 时隔四个月,这款大模型迎来了小升级。 5月28日,DeepSeek正式发布了R1的最新版本——DeepSeek-R1-0528。
5/30/2025 6:57:53 AM
Yu

万人在看,用Deepseek根据需求定制化写文档并导出,你一定用的上!

需求分析前几天工程立项,主要批量写功能点用于新一年的工程预算。 但是工作量大,共计20000 行左右,要求3天之内完成。 图片文档主要结构及表头信息如下(提供模版部分字段)图片由于工作量太大,手工敲需要消耗大量的人力,于是借助deepseek大模型实现,让AI帮忙干活。
5/30/2025 2:10:00 AM
微微一笑

一文教你玩转 RAG 大模型应用开发

Part.1.RAG这么火,你会用吗? 自从大模型技术走向市场以来,“幻觉”现象总是对用户造成困扰,而RAG(Retrieval-Augmented Generation,检索增强生成)技术正在成为解决这一难题的利器。 国内众多科技大厂在实践RAG技术时都取得了阶段性的成果。
5/30/2025 1:00:00 AM
三笠

全面解读:新版R1低调升级!编程强到起飞直追o3-high,支持30分钟以上长思考,推理、写作都进化了!

出品 | 51CTO技术栈(微信号:blog51cto)DeepSeek 于 5 月 28 日晚间在微信平台低调宣布——R1 模型完成“小版本试升级”! 图片这波有多低调呢? DeepSeek 又是“0 宣发”出手,连一句英文公告都没有。
5/29/2025 1:05:32 PM
伊风