AIGC宇宙 AIGC宇宙

大模型

函数向量对齐技术,让大模型持续学习不“失忆”丨ICLR 2025

LLMs为什么总是灾难性遗忘? 原来是功能激活在搞怪。 最近来自中国科学技术大学、香港城市大学和浙江大学的联合研究团队,通过对多个语言模型、任务序列和评估指标的系统分析,终于破解了LLMs的灾难性遗忘之谜——遗忘行为具有高度的模型依赖性,而导致遗忘发生的本质却是功能激活的变化。
6/3/2025 8:35:00 AM

AI记忆系统首获统一框架!6大操作让大模型拥有人类记忆能力

当AI不再只是“即兴发挥”的对话者,而开始拥有“记忆力”——我们该如何重新定义智能? 来自香港中文大学、爱丁堡大学、香港科技大学与华为爱丁堡研究中心的研究团队联合发布了一项关于AI记忆机制的系统性综述,旨在在大模型时代背景下,重新审视并系统化理解智能体的记忆构建与演化路径。 大语言模型(LLMs)正快速从纯文本生成工具演化为具有长期交互能力的智能体。
6/3/2025 8:32:00 AM

为什么非要做Agent?我用传统方法也能实现啊!

"我硬编码10分钟就能搞定的功能,你用Agent折腾半天还不稳定,图啥? " 技术群里,老王又开始质疑我们的Agent项目了。 作为一个写了15年代码的资深工程师,他的话很有代表性。
6/3/2025 6:39:54 AM
大数据AI智能圈

AI大模型踩过的坑,每一个都价值千万

看着你们公司几十台服务器嗡嗡作响,显卡温度报警声此起彼伏,老板又在催问"大模型什么时候能上线? " 这个熟悉的场景,是不是让你想起了那句话——"理想很丰满,现实很骨感"。  训练一个千亿参数的大模型,好比盖一栋摩天大楼。
6/3/2025 6:30:05 AM
大数据AI智能圈

阿里发布 QwenLong-L1 超长文本杀器!已开源、支持 120k 长上下文、具备“翻书回溯”能力

业界普遍认为AI上下文越长越好,但这存在一个核心矛盾:模型能“吞下”海量信息,却难以真正“消化”。 面对长文,它们会忘记要点、无法深入推理,这已成为一大瓶颈。 例如,AI 能记住第1页的内容,同时理解第100页的观点,并将两者联系起来进行推理吗?
6/3/2025 12:00:09 AM

Anthropic重磅开源!“电路追踪”工具解锁AI大脑,揭秘大模型决策全过程

近年来,大语言模型(LLM)的快速发展为人工智能领域带来了前所未有的突破,但其内部决策过程却常常被视为“黑盒子”,难以捉摸。 5月29日,AI研究领域的明星公司Anthropic发布了一项重大开源成果——“电路追踪”(Circuit Tracing)工具,为破解大模型的内部工作机制提供了全新视角。 这一工具不仅能帮助研究人员深入探索AI的“思考”过程,还为推动更透明、可控的AI发展迈出了重要一步。
5/30/2025 10:01:14 AM
AI在线

博士级AI智能体写的论文,首次登上顶会ACL!人类作者只是监工

有个叫Zochi的AI系统写了一篇研究论文,并且被顶级学术会议ACL 2025的主会场接受了! ACL是自然语言处理(NLP)领域里最顶尖的会议之一。 Zochi是Intology AI开发的首个博士级智能体,就像一个从头到尾完成科学研究「AI科学家」。
5/30/2025 9:15:00 AM

百度智能云千帆大模型平台、文小言接入DeepSeek-R1-0528模型

百度智能云千帆大模型平台正式上架了 DeepSeek 最新的 R1-0528大模型。 这一重要更新于5月29日上线,旨在为企业和用户提供更强大的 AI 能力和支持。 千帆模型开发平台不仅上架了这一全新大模型,还同步推出了一系列实用功能,包括批量推理、模型评估、推理日志挖掘分析以及模型蒸馏。
5/30/2025 9:05:04 AM
AI在线

AI仅凭“自信”学会推理,浙大校友复刻DeepSeek长思维链涌现,强化学习无需外部奖励信号

复刻DeepSeek-R1的长思维链推理,大模型强化学习新范式RLIF成热门话题。 UC Berkeley团队共同一作Xuandong Zhao把这项成果称为:大模型无需接触真实答案,仅通过优化自己的信心,就能学会复杂推理。 具体来说,新方法完全不需要外部奖励信号或标注数据,只需使用模型自身的置信程度作为内在奖励信号。
5/30/2025 9:05:00 AM

一文教你玩转 RAG 大模型应用开发

Part.1.RAG这么火,你会用吗? 自从大模型技术走向市场以来,“幻觉”现象总是对用户造成困扰,而RAG(Retrieval-Augmented Generation,检索增强生成)技术正在成为解决这一难题的利器。 国内众多科技大厂在实践RAG技术时都取得了阶段性的成果。
5/30/2025 1:00:00 AM
三笠

AI 大脑如何被 “套路”?— 揭秘大模型提示词攻防

在人工智能技术爆发式发展的当下,大模型(Large Language Models, 以下简称LLM)凭借其强大的自然语言处理能力,广泛渗透于智能助手、内容创作、代码生成等诸多关键领域,深度重塑着人们的生活与工作范式。 然而,随着 LLM 应用场景的持续拓展与深化,一系列严峻的安全挑战接踵而至,其中提示词攻击已逐渐演变为威胁人工智能系统安全的核心隐患,亟待深入剖析与应对。 一、提示词攻击定义与影响提示词攻击是指攻击者精心构思并输入恶意构造的文本内容,意图干扰和操纵LLM的内部运行逻辑,使其偏离既定的正常行为模式。
5/29/2025 10:32:32 AM
大模型应用防火墙

模型吞噬代码,Agent重构世界:当AI Agent与模型协同进化

大家好,我是肆〇柒。 AI 圈的进化速度之快,已是不争的事实。 去年,MCP(模型上下文协议)发布,随后 AI Coding 赛道愈发热闹,Cursor、Cline、Devin、MGX 等产品层出不穷。
5/29/2025 9:57:38 AM
肆零柒

​中国石油发布3000亿参数昆仑大模型,助力智能化油气全产业链

中国石油天然气集团有限公司在北京正式发布了其最新的3000亿参数昆仑大模型。 这一重大成果标志着中国在大模型技术领域的又一次重要突破,体现了中央企业在人工智能领域的快速发展和创新能力。 新的昆仑大模型相比于2024年11月发布的700亿参数版本有了显著提升。
5/28/2025 5:00:50 PM
AI在线

多模态大模型不会画辅助线?最新评估得分:o3仅25.8%,远低于人类82.3%

多模态时代应如何评估模型的视觉输出能力? 来自清华大学、腾讯混元、斯坦福大学、卡耐基梅隆大学等顶尖机构的研究团队联合发布了RBench-V:一款针对大模型的视觉推理能力的新型基准测试。 过去的评估基准主要集中于评估多模态输入和纯文本推理过程。
5/28/2025 11:43:48 AM

告别卡脖子,华为黑科技破局!昇腾推理加速1.6倍打破LLM降智魔咒

LLM发展到今天,下一步该往哪个方向探索? 显然,如今最明显的一个问题就是,大模型的参数规模还是太大了——DeepSeek-V3的参数为671B,Llama 3.1系列最大为405B,GPT-4o为200B,Claude 3.5 Sonnet为175B。 参数规模在不断增长,高昂的计算成本和推理延迟,该怎么破?
5/28/2025 8:51:00 AM

知识图谱、大模型与幻觉:自然语言处理的视角

摘要大型语言模型(LLMs)已经彻底改变了基于自然语言处理(NLP)的应用,包括自动化文本生成、问答系统、聊天机器人等。 然而,它们面临一个重大挑战:产生幻觉,即模型生成听起来合理但实际上错误的内容。 这削弱了信任,并限制了LLMs在不同领域的适用性。
5/28/2025 1:50:00 AM
KGGPT

DeepSeek-V3:硬件与模型的完美统协,奏响 AI 高效新乐章

大家好,我是肆〇柒。 DeepSeek-V3 曾经一度备受全球瞩目,从 V3 发布至今,这一开源模型已经在众多企业场景中成功落地。 然而,在落地过程中,由于其复杂的工程细节,相信许多团队也遇到了不少挑战。
5/28/2025 1:20:00 AM
肆零柒

基于大模型的智能问答系统

在构建基于大模型的智能问答系统时,LangChain 提供了一个强大的框架,支持各种模块来帮助开发者构建更复杂、更智能的语言处理应用。 以下是构建此类系统的一些关键组件和步骤。 模型接入:使用 LangChain 支持的模型,通过 API 接入外部模型,或利用 api-for-open-llm 框架调用 本地llm模型。
5/28/2025 1:00:00 AM
耗子