LLM
狠人研究公开!ChatGPT底层记忆系统终于被逆向了!没有RAG!用户设备信息、使用习惯统统存下来,用户知识记忆是新的研究热点!
编辑 | 云昭ChatGPT 的记忆系统为什么做得如此有魔性? 现在终于有人研究出来了! 前天,小编刷到了一篇狠人逆向研究 ChatGPT 底层记忆架构的文章,非常精彩。
9/12/2025 1:32:48 PM
云昭
通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
在大模型的发展历程中,提升参数规模已被多次证明是提升模型智能的最有效手段之一。 然而,随着模型参数量的增加,GPU内存容量和互联带宽已成为限制未来更大规模模型训练和部署的主要瓶颈。 在有限的硬件资源下,如何更有效地训练和推理更大规模的模型,已成为一个备受关注且具有显著经济价值的课题。
9/5/2025 9:15:00 AM
ChatGPT后遗症来了!人类日常聊天越来越AI化
和AI聊了两年多,人类说话ChatGPT味越来越重了? 最新研究结果显示,还真是。 佛罗里达州立大学的研究团队花了两年时间,分析了ChatGPT发布前后的非脚本化口语录音,在2210万个词的数据集中发现像“delve”、“intricate”这些学术写作词高频出现在人们日常说话中。
8/28/2025 4:55:58 PM
闻乐
大模型的基石:LLM预训练全解析
前言过去几年,大语言模型(LLM, Large Language Models)逐渐成为人工智能领域的核心驱动力。 从GPT到LLaMA,再到国内外涌现的大大小小模型,它们无一不是在“预训练”这一步骤中打下了坚实的基础。 可以说,预训练是LLM的生命起点,是它们从“婴儿”成长为“博学者”的关键阶段。
8/24/2025 9:24:07 AM
AI大模型应用开发
大模型给自己当裁判并不靠谱!上海交通大学新研究揭示LLM-as-a-judge机制缺陷
大语言模型(LLM)正从工具进化为“裁判”(LLM-as-a-judge),开始大规模地评判由AI自己生成的内容。 这种高效的评估范式,其可靠性与人类判断的一致性,却很少被深入验证。 一个最基础、却也最关键的问题是:在评判一个模型是否“入戏”之前,AI裁判能准确识别出对话中到底是谁在说话吗?
8/18/2025 9:00:00 AM
OpenAI回归开源:gpt-oss-120b和gpt-oss-20b完整指南
译者 | 陈峻审校 | 重楼本文将向你介绍OpenAI新发布的两个开源模型--gpt-oss-120b和gpt-oss-20b,它们的特点,以及在何种场景下该使用哪个模型。 近期,OpenAI发布了两个开源的大语言模型(LLM)--gpt-oss-120b和gpt-oss-20b。 它们是自GPT-2以来,由OpenAI第一个公开许可的LLM。
8/15/2025 8:17:41 AM
陈峻
揭秘大模型的魔法:实现带可训练权重的自注意力机制
大家好,我是写代码的中年人。 上一篇我们实现了一个“无可训练参数”的注意力机制,让每个词都能“看看别人”,计算出自己的上下文理解。 虽然实现起来不难,但它只是个“玩具级”的注意力,离真正的大模型还差了几个“亿”个参数。
8/4/2025 9:31:49 AM
写代码的中年人
让 Gemini CLI 跑在你的私有大模型上
前不久,Google 开源了 Gemini CLI 工具,它允许用户通过命令行与 Gemini AI 模型进行高效交互。 然而,在实际应用中,出于安全性和成本控制的考虑,很多场景更适合使用本地部署的大语言模型(LLM)。 因此,让 Gemini CLI 支持连接本地 LLM 就显得尤为重要。
7/31/2025 6:45:00 AM
Andflow
OpenAI被曝IMO金牌「造假」,陶哲轩怒揭内幕!
OpenAI夺下IMO金牌,最新大瓜又来了。 昨日,因内部审核流程,谷歌DeepMind研究员在评论区,暗讽OpenAI抢先发布测试结果。 图片原来,事情并非那么简单。
7/21/2025 11:48:54 AM
新智元
ICML'25 |大模型再爆弱点!旧记忆忘不掉,新记忆分不出,准确率暴降
人们越来越意识到,大语言模型(LLM)里「找信息」这件事,并不是简单地翻字典,而和「写信息」的能力紧紧绑在一起。 一般认为,给模型塞入更长的上下文就能让它找得更准,不过上下文内部存在「互相干扰」,但这种现象却很少被研究。 为了看清这个问题,弗吉尼亚大学和纽约大学神经科学中心研究人员借用了心理学里的「前摄干扰」(proactive interference)概念:先出现的信息会妨碍我们回忆后来更新的内容。
7/21/2025 9:09:00 AM
从聊天记录到数字资产:MIRIX 让记忆可买卖
大家好,我是肆〇柒。 当下,LLM 智能体在各种复杂任务中表现得越来越出色。 然而,记忆这一关键要素却始终制约着 LLM 智能体的进一步发展。
7/17/2025 10:08:30 AM
肆零柒
一文搞懂 | 大模型为什么出现幻觉?从成因到缓解方案
1、前言随着大模型(Large Language Models, 以下简称LLM)迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。 所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。 比如,当你询问“世界上最长的河流是哪条?
7/11/2025 9:50:52 AM
火山引擎云安全
ChatGPT 在航天器自主控制模拟竞赛中获佳绩,展现大语言模型新潜力
AI在线 7 月 7 日消息,近日,一项关于利用大型语言模型(LLM)进行航天器自主控制的研究引起关注。 研究人员通过模拟竞赛的方式,测试了 ChatGPT 在航天器操控方面的表现。 结果显示,ChatGPT 在自主航天器模拟竞赛中取得了第二名的优异成绩,仅次于一个基于不同方程的模型。
7/7/2025 10:19:28 PM
远洋
LLM 翻车现场!ChatGPT 挑战 1979《Video Chess》惨败:连车马象都认错
一场 ChatGPT 对战 Atari 2600 的象棋对局火了。 具体而言,在一场看似轻松的“AI玩具对决”里,ChatGPT输给了Atari 2600 的象棋引擎,对手只是一台48年前、频率1.19 MHz的8位主机。 图片起初,这只是Robert Jr.
6/17/2025 5:16:51 PM
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
6/16/2025 6:00:00 AM
机器之心
TypeScript 杀疯了,开发 AI 应用新趋势!
随着 AI 技术的迅猛发展,越来越多开发者开始构建基于大模型(LLM)、多智能体协作、浏览器端推理等新型应用。 在这一浪潮中,TypeScript 凭借其强大的类型系统、成熟的工具链和活跃的生态,正逐步成为现代 AI 应用开发的主流选择之一。 根据 Y Combinator 统计,约有 60% 至 70% 的 AI Agent 初创公司采用 TypeScript 开发。
6/13/2025 11:25:04 AM
CUGGZ
强化预训练(RPT):LLM 预训练新范式,当模型学会战略思考
大家好,我是肆〇柒。 在当下,大型语言模型(LLM)正以其卓越的能力在诸多任务中引人瞩目。 这些能力的提升,很大程度上得益于在大规模文本数据上的 next-token-prediction 自监督学习范式。
6/13/2025 9:29:51 AM
肆零柒
LLM 协作革命:Group Think 如何重塑推理边界
大家好,我是肆〇柒。 今天和大家聊聊 Group Think。 顾名思义,它通过让单个 LLM 模拟多个并行推理智能体,并以 token 级别的细粒度协作,提出了推理协作的新范式。
6/6/2025 8:57:42 AM
肆零柒
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
Meta
用户
微软
GPT
学习
技术
图像
Gemini
智能体
马斯克
AI新词
AI创作
Anthropic
英伟达
论文
训练
代码
算法
LLM
Stable Diffusion
芯片
腾讯
蛋白质
开发者
Claude
苹果
AI for Science
Agent
生成式
神经网络
机器学习
3D
研究
xAI
生成
人形机器人
AI视频
百度
计算
工具
Sora
GPU
华为
大语言模型
RAG
AI设计
字节跳动
具身智能
搜索
大型语言模型
场景
深度学习
视频生成
预测
AGI
视觉
伟达
架构
Transformer
神器推荐
亚马逊
特斯拉
编程
MCP
Copilot