AI
大神卡帕西这么用ChatGPT:日常4o快又稳,烧脑切o4做后盾,o3只当备胎用
OpenAI模型命名混乱没规律,以至于打开ChatGPT后,好多人都不知道到底该用哪个模型来完成任务。 不过别慌,现在咱们有救了! 刚刚,大神卡帕西在𝕏上发布了一篇使用ChatGPT时的模型选择指南。
6/3/2025 2:13:56 PM
逆向工程:ChatGPT 的记忆是如何工作的
这篇文章是名为eric 工程师对ChatGPT记忆系统的深度逆向工程和技术实现推测。 它详细拆解了“可保存记忆”和包含“当前会话历史”、“对话历史”、“用户洞察”三个子系统的“聊天历史”,分析了它们的工作原理、可能的实现方案(如向量数据库、聚类算法),并探讨了这些记忆系统如何显著提升ChatGPT的用户体验,认为“用户洞察”是体验提升的关键文章深度剖析了“用户洞察”(User Insights)高级记忆系统,分析了ChatGPT如何从你的多轮对话中自动学习、总结你的专业背景(如对Rust编程的深入理解)、知识领域乃至沟通偏好,并附上置信度和时间范围,悄然注入后续对话的上下文中。 这正是ChatGPT能提供“千人千面”且高度相关回复的核心秘密地址:,这里做一个重点梳理ChatGPT的记忆系统:不止一种,而是一套组合拳Eric发现,ChatGPT的记忆并非单一系统,而是主要由两大部分构成:“可保存记忆(Saved Memory)”和“聊天历史(Chat History)”。
6/3/2025 9:08:49 AM
ChatGPT 高级语音模式惊现 “广告插播”!用户质疑服务质量
最近,一名 ChatGPT 的付费用户在使用其高级语音模式时,遇到了让人惊讶的情况。 他原本在与 ChatGPT 讨论寿司的话题,却突然被转入了一段广告宣传,令他目瞪口呆。 根据用户的描述,ChatGPT 在谈话中毫无预兆地开始介绍一种名为 Prolon 的营养计划,并且详细拼读了网址,似乎这段广告是完全不受控制地被植入的。
6/3/2025 9:01:04 AM
AI在线
微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失
最近,微软亚研院的研究团队开源了原生1bit精度的大模型:BitNet b1.58 2B4T。 还没过几天,原班人马带着第二代BitNet v2来了! 这次性能几乎0损失,但占用内存和计算成本显著降低!
6/3/2025 8:49:00 AM
函数向量对齐技术,让大模型持续学习不“失忆”丨ICLR 2025
LLMs为什么总是灾难性遗忘? 原来是功能激活在搞怪。 最近来自中国科学技术大学、香港城市大学和浙江大学的联合研究团队,通过对多个语言模型、任务序列和评估指标的系统分析,终于破解了LLMs的灾难性遗忘之谜——遗忘行为具有高度的模型依赖性,而导致遗忘发生的本质却是功能激活的变化。
6/3/2025 8:35:00 AM
AI记忆系统首获统一框架!6大操作让大模型拥有人类记忆能力
当AI不再只是“即兴发挥”的对话者,而开始拥有“记忆力”——我们该如何重新定义智能? 来自香港中文大学、爱丁堡大学、香港科技大学与华为爱丁堡研究中心的研究团队联合发布了一项关于AI记忆机制的系统性综述,旨在在大模型时代背景下,重新审视并系统化理解智能体的记忆构建与演化路径。 大语言模型(LLMs)正快速从纯文本生成工具演化为具有长期交互能力的智能体。
6/3/2025 8:32:00 AM
OpenAI 抛弃 Node.js,用 Rust 重写 AI 编程工具 Codex CLI
原版本主要基于 TypeScript 和 Node.js,但团队现已决定用 Rust 重写。维护者 Fouad Matin 表示,TypeScript 版本将持续修复 BUG,直到 Rust 版本在体验和功能上达到同等水平。
6/3/2025 8:13:08 AM
故渊
为什么非要做Agent?我用传统方法也能实现啊!
"我硬编码10分钟就能搞定的功能,你用Agent折腾半天还不稳定,图啥? " 技术群里,老王又开始质疑我们的Agent项目了。 作为一个写了15年代码的资深工程师,他的话很有代表性。
6/3/2025 6:39:54 AM
大数据AI智能圈
AI大模型踩过的坑,每一个都价值千万
看着你们公司几十台服务器嗡嗡作响,显卡温度报警声此起彼伏,老板又在催问"大模型什么时候能上线? " 这个熟悉的场景,是不是让你想起了那句话——"理想很丰满,现实很骨感"。 训练一个千亿参数的大模型,好比盖一栋摩天大楼。
6/3/2025 6:30:05 AM
大数据AI智能圈
阿里发布 QwenLong-L1 超长文本杀器!已开源、支持 120k 长上下文、具备“翻书回溯”能力
业界普遍认为AI上下文越长越好,但这存在一个核心矛盾:模型能“吞下”海量信息,却难以真正“消化”。 面对长文,它们会忘记要点、无法深入推理,这已成为一大瓶颈。 例如,AI 能记住第1页的内容,同时理解第100页的观点,并将两者联系起来进行推理吗?
6/3/2025 12:00:09 AM
OpenAI 坚决反击马斯克:法院裁定请求毫无依据
据路透社报道,OpenAI 近日向法院提出申请,要求继续对特斯拉创始人埃隆・马斯克进行反诉。 OpenAI 在法庭文件中表示,马斯克请求驳回其反诉的动议 “毫无事实依据”。 这一案件的持续发酵,再次引发了公众的关注。
5/30/2025 3:00:54 PM
AI在线
专治AI生图「人脸崩坏」,8倍速碾压GPT!新版FLUX.1多方位刷新SOTA
用AI生成&编辑图片时,想生成一套完整故事模板,结果主角「变脸」比翻书还快,这可怎么办? 别慌,全新图像模型FLUX.1 Kontext来了! 支持上下文内图像生成,可以同时使用文本和图像进行提示,并能够无缝提取和修改视觉概念,从而生成新的、连贯的图像。
5/30/2025 2:28:10 PM
新智元
未来五年,AI 可能取代一半入门级白领工作
在最近的一次采访中,Anthropic 公司的首席执行官达里奥・阿莫代伊(Dario Amodei)发出了一个引人注目的警告。 他表示,随着人工智能(AI)技术的快速发展,未来五年内,可能会有一半的入门级白领工作被取代,而失业率则可能飙升至10% 到20%。 阿莫代伊强调,许多工人并没有意识到这种变化即将到来,很多人对此感到难以置信。
5/30/2025 11:00:54 AM
AI在线
OpenAI o3 AI 推理模型成关键“侦探”,发现 Linux 内核高危漏洞
安全专家 Sean Heelan 于 5 月 22 日发布博文,报道称在 OpenAI 的 o3 推理模型帮助下,他成功发现了 Linux 内核重大漏洞,追踪编号为 CVE-2025-37899。
5/30/2025 10:39:45 AM
故渊
Anthropic重磅开源!“电路追踪”工具解锁AI大脑,揭秘大模型决策全过程
近年来,大语言模型(LLM)的快速发展为人工智能领域带来了前所未有的突破,但其内部决策过程却常常被视为“黑盒子”,难以捉摸。 5月29日,AI研究领域的明星公司Anthropic发布了一项重大开源成果——“电路追踪”(Circuit Tracing)工具,为破解大模型的内部工作机制提供了全新视角。 这一工具不仅能帮助研究人员深入探索AI的“思考”过程,还为推动更透明、可控的AI发展迈出了重要一步。
5/30/2025 10:01:14 AM
AI在线
博士级AI智能体写的论文,首次登上顶会ACL!人类作者只是监工
有个叫Zochi的AI系统写了一篇研究论文,并且被顶级学术会议ACL 2025的主会场接受了! ACL是自然语言处理(NLP)领域里最顶尖的会议之一。 Zochi是Intology AI开发的首个博士级智能体,就像一个从头到尾完成科学研究「AI科学家」。
5/30/2025 9:15:00 AM
AI仅凭“自信”学会推理,浙大校友复刻DeepSeek长思维链涌现,强化学习无需外部奖励信号
复刻DeepSeek-R1的长思维链推理,大模型强化学习新范式RLIF成热门话题。 UC Berkeley团队共同一作Xuandong Zhao把这项成果称为:大模型无需接触真实答案,仅通过优化自己的信心,就能学会复杂推理。 具体来说,新方法完全不需要外部奖励信号或标注数据,只需使用模型自身的置信程度作为内在奖励信号。
5/30/2025 9:05:00 AM
DeepSeek免费超越GPT-4?
DeepSeek 最新发布了 R1-0528 版本,这次更新的最大亮点是"深度思考"能力大幅提升。 很简单:进入 DeepSeek 官网、APP 或小程序,在对话界面开启"深度思考"功能即可。 图片API 接口也同步更新,调用方式保持不变。
5/30/2025 7:40:56 AM
程序员NEO
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
英伟达
Anthropic
代码
算法
Stable Diffusion
训练
芯片
开发者
蛋白质
腾讯
生成式
苹果
LLM
神经网络
AI新词
Claude
3D
研究
生成
机器学习
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
字节跳动
具身智能
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
模态
架构
LLaMA