AIGC宇宙 AIGC宇宙

大模型

推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

近两年,思维链(Chain-of-Thought, CoT)推理让大语言模型在复杂推理任务上展现出前所未有的能力——从数学解题到逻辑分析,表现令人惊叹。 然而,这种强大的推理能力也带来了一个长期存在的挑战:推理过程过于缓慢。 每生成一个 token,模型都要完整算一遍前向传播。
10/17/2025 5:50:01 PM

AI视频公司爱诗科技完成1亿元B+轮融资:ARR突破4000万美元,用户超1亿

国内AI视频生成公司爱诗科技(PixVerse)于10月17日宣布完成1亿元人民币B 轮融资,由复星锐正、同创伟业和顺禧基金等机构联合投资。 公司披露的数据显示,其年度经常性收入(ARR)已突破4000万美元,注册用户数超过1亿,月活跃用户超过1600万。 从商业化进展来看,爱诗科技自2024年11月正式启动商业化以来,不到一年时间内收入实现了十倍增长。
10/17/2025 4:16:46 PM
AI在线

AI玩拼图游戏暴涨视觉理解力,告别文本中心训练,无需标注的多模态大模型后训练范式

在多模态大模型的后训练浪潮中,强化学习驱动的范式已成为提升模型推理与通用能力的关键方向。 然而,大多数现有方法仍以文本为中心,视觉部分常被动地作为辅助信号输入。 相比之下,我们认为在后训练阶段重新审视视觉自监督学习的潜力,设计以视觉为中心的后训练对于增强多模态大模型对于视觉信息本身的细粒度深入理解也同样至关重要。
10/16/2025 9:00:00 AM

大模型降本增效,稀疏注意力机制的魔力在哪?

就在上个月,DeepSeek正式发布了实验性模型DeepSeek-V3.2-Exp,该模型在长文本处理与推理效率上实现了突破。 这一提升主要源于其架构中引入了名为DeepSeek Sparse Attention(DSA)的稀疏注意力机制。 这篇文章我们就来聊聊,什么是稀疏注意力机制?稀疏注意力机制是通过限制注意力范围,减少需要计算的注意力权重数量,从而降低计算复杂度。
10/16/2025 9:00:00 AM
Yu

实测,Claude Code 配合国内大模型,一样很牛x(完整配置教程)

差别确实是有的,因为 AI Agent 的能力取决于大模型 和 Agent 终端工程化两方面的能力,这两个工具之所以厉害,除了模型外,优秀的 Agent 终端工程能力也占了一半功劳。 所以,换了其他终端后,如果终端能力不行,依然没办法发挥优势。 还有个问题,那就是 Droid 依然是国外的产品。
10/16/2025 3:22:00 AM
风筝

大的来了:谷歌Gemini 3.0 Pro单次生成网页版操作系统,Win、Mac、Linux一网打尽

先给各位读者看个视频:Prompt : Design and create a web os like mac os full functional features from text editor , to dile manager to paint to video editor and all important mac os pre bundled software Use whatever libraries to get this done but make sure I can paste it all into a single HTML file and open it in Chrome.make it interesting and highly detail , shows details that no one expected go full creative and full beauty in one code block这条视频在海外平台爆火,这条推文已经获得了 140 多万的浏览。 看上去没什么特别的,只是一个复刻苹果 MacOS 的操作系统演示,甚至作为操作系统来说显得有一些粗糙。
10/15/2025 1:26:00 PM
机器之心

Traefik vs Agent Middleware,谈 Middleware 如何成为现代分布式架构的“控制中枢”?

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建大模型应用架构技术框架:Middleware。 在现代分布式系统的世界里,真正决定系统稳定性与智能化程度的,并非那些看得见的核心模块,而往往是藏在背后的“中间层”——Middleware(中间件)。 作为一位无声的指挥者,其掌控着数据流转的节奏、请求调度的路径,以及智能决策的触发逻辑。
10/15/2025 9:39:31 AM
Luga Lee

谷歌新版Gemini一夜端掉UI:单HTML文件复刻macOS,成功率100%

前端UI的工作,被谷歌AI一夜干没了。 就在最新能力展示中,Gemini 3.0 Pro居然自己“捏”出了一个macOS。 只靠几行提示词,谷歌的AI就在浏览器里复刻出了苹果引以为傲的UI。
10/15/2025 9:13:51 AM

国内安全厂商应对大模型新风险的主要措施

大型语言模型(LLMs)的飞速发展,正在为企业带来前所未有的业务创新,但同时也带来了一系列超出传统网络安全范畴的“新”威胁。 攻击者不再满足于入侵服务器,而是通过恶意输入来操纵模型行为、窃取模型数据甚至损害模型本身,这些新威胁使得为大模型构建一个强大的安全防护体系,成为企业在AI时代下的当务之急。 那么,国内厂商是如何应对这些“新”威胁,我们又该如何防御呢?
10/15/2025 12:00:00 AM

抖音&LV-NUS开源多模态新模,以小博大刷新SOTA,8B推理比肩GPT-4o

SAIL-VL2团队 投稿. 量子位 | 公众号 QbitAI2B模型在多个基准位列4B参数以下开源第一。 抖音SAIL团队与LV-NUS Lab联合推出的多模态大模型SAIL-VL2。
10/14/2025 11:17:20 AM
西风

LLM-as-a-Judge 的评估陷阱:TrustJudge 如何用熵保留机制提升一致性

大家好,我是肆〇柒。 今天要和大家一起阅读一项来自北京大学、新加坡国立大学、东京科学研究所、南京大学、Google DeepMind、西湖大学与东南大学等机构联合发表的重要研究——《TrustJudge: Inconsistencies of LLM-as-a-Judge and How to Alleviate Them》。 这项工作首次系统揭示了当前主流大模型自动评估范式中存在的两类根本性逻辑矛盾,并提出了一套无需额外训练、即插即用的概率化评估框架,显著提升了评估的一致性与可靠性。
10/14/2025 9:22:48 AM
肆零柒

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

大模型也有「EMO」时刻。 比如,Gemini在Cursor里调试编译错误后,打开了自责「循环模式」,把「I am a disgrace(我很丢脸)」重复了86次。 尽管大模型在复杂推理能力上已有了巨大进步,但上述现象仍使一部分专家认为:思考模型,只提供了「思考的幻觉」,因为当任务被拉长时它们最终会失败。
10/14/2025 9:04:00 AM

大模型赋能文化遗产数字化:古籍修复与知识挖掘的技术实践

在文化遗产数字化领域,大模型的核心应用难点在于如何处理古籍中大量的异体字、残缺文本与模糊语义,尤其是面对明清时期的手写残卷,传统的文字识别技术不仅准确率低下,更无法理解古籍中蕴含的历史语境与专业术语。 我在参与某博物馆古籍数字化项目时,首先遭遇的便是大模型对古籍文字的“识别盲区”—初期使用通用大模型识别一本明代医学残卷,发现其将“癥瘕”误判为“症痕”,把“炮制”错解为“泡制”,更无法关联“君臣佐使”等中医方剂配伍逻辑,导致提取的知识完全偏离原意。 为解决这一困境,我没有直接进行模型微调,而是先搭建“古籍文字与语境知识库”:通过整理《说文解字》《康熙字典》等权威字书,以及近现代古籍整理学术成果,构建包含5000 异体字、通假字的对照词典,每个文字标注字形演变、常见语境与释义差异;同时,针对医学、天文、历法等专业领域古籍,收集对应的行业术语库,标注术语的历史用法与现代对应概念(如“勾陈”对应天文领域的“小熊座”)。
10/13/2025 6:10:28 PM
许辉

GPT-6或要有生命了!MIT神作:一套神框架让大模型“自己微调自己”,实验已通过!超过GPT4.1,网友:冻结权重时代结束了

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)在过去两年,大语言模型几乎定义了整个 AI 发展的节奏。 但有个问题一直没变:模型再强,也不会自己学习。 每次要让它掌握新知识,都必须人工投喂数据、重新训练。
10/13/2025 2:00:24 PM
云昭

超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器

当大语言模型生成海量数据时,数据存储的难题也随之而来。 对此,华盛顿大学(UW)SyFI实验室的研究者们提出了一个创新的解决方案:LLMc,即利用大型语言模型自身进行无损文本压缩的引擎。 基准测试结果表明,无论是在维基百科、小说文本还是科学摘要等多种数据集上,LLMc的压缩率都优于传统的压缩工具(如ZIP和LZMA)。
10/11/2025 6:05:23 PM

Anthropic 最新研究:仅需250份恶意文档,大模型即可被攻陷,无关参数规模

2025年10月8日,英国AI安全研究院、Anthropic、艾伦·图灵研究所与牛津大学OATML实验室等机构联合发布的一项研究,打破了业界关于“大模型越大越安全”的核心假设。 这项研究题为《Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples》,论文发表于arXiv。 研究团队发现,只需约250个恶意文档,就足以在任意规模的大语言模型(LLM)中植入可触发的后门(Backdoor)。
10/11/2025 3:18:35 PM

蚂蚁新发万亿开源旗舰大模型,究竟有多强?

国产大模型最近真是百花齐放啊,卷到家了。 这不,蚂蚁最近也发布了他的万亿级开源大模型 Ling 1T,把大模型的数量级又拉升到了新的高度。 那这个大模型到底好不好用呢?
10/11/2025 10:04:00 AM
磊哥

别再给大模型打鸡血,先救救被“智能体”三个字忽悠的预算

“兄弟,我们老板昨天看完路演,拍桌子要上Agent,说三个月让客服成本归零。 ”“归零? 他以为Agent是灭霸,打个响指预算就蒸发?
10/11/2025 9:40:11 AM
大数据AI智能圈