AIGC宇宙 AIGC宇宙

人工智能

所谓"廉价"的开源AI模型 正在吞噬你的算力预算

一项全新的综合研究表明,在执行相同任务时,开源AI模型比闭源竞争对手消耗的计算资源要多得多,这可能会削弱其成本优势,并重塑企业评估AI部署策略的方式。 该研究由AI公司Nous Research开展,发现开放权重模型使用的token(AI计算的基本单位)数量是OpenAI和Anthropic等闭源模型的1.5到4倍,对于简单的知识问答,差距会大幅扩大,某些开源模型使用的token数量最多可达闭源模型的10倍。 研究人员在周三发布的报告中写道:“开放权重模型使用的token数量是闭源模型的1.5至4倍(对于简单的知识问答,这一差距可达10倍),因此尽管每个token的成本较低,但每次查询的成本有时反而更高。
8/19/2025 7:07:00 AM
Michae

Agent 产品如何定价?我们花的钱,究竟值不值?

一方面,我们对Agent的期望是成为一个可靠、高效、且不知疲倦的伙伴;另一方面,现实体验却常常被一些“意外”打断:资源瓶颈的窘境:在执行关键任务的冲刺阶段,系统突然弹出“积分/点数已耗尽”的提示,如同汽车在距离目的地一公里处耗尽燃油,进程戛然而止。 性能波动的无奈:用户时常面临算力“堵车”的困境,Agent的响应速度时快时慢,尤其在服务高峰期,其表现更像一个“兼职员工”,而非全天候的专业助理。 DeepSeek等前沿应用在发布初期因用户激增而导致的服务器高负载现象,便是这一挑战的缩影。
8/14/2025 11:13:59 AM
DataFun

Deep Agent 是如何让大模型更“聪明” ?

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的开源库 - “Deep Agent”。 众所周知,AI Agent 无疑是当下最激动人心的技术叙事之一。 它让我们看到了一个未来:AI不再仅仅是被动应答的工具,而是能够自主感知、推理并行动的“数字员工”。
8/12/2025 9:23:34 AM
Luga Lee

OpenAI重新启用旧版模型 奥特曼坦承GPT-5上线过程"坎坷"

OpenAI联合创始人兼CEO奥特曼公开承认,公司最新旗舰级大型语言模型GPT-5在发布时出现了重大问题。 尽管该模型被宣传为迄今为止功能最强大的一款,但发布过程并不顺利。 奥特曼在Reddit的“问我任何问题”(AMA)板块和X平台上回答用户提问时,承认了GPT-5发布过程中出现的一系列问题,包括模型切换故障、性能不佳以及用户困惑等,这些问题促使OpenAI部分撤销了一些平台变更,并恢复了用户对GPT-4o等早期模型的访问权限。
8/11/2025 2:13:36 PM
Carl Franzen

GPT-5将如何重塑IT团队、开发者与职场AI的未来

OpenAI发布了其大型语言模型的最新版本GPT-5,目前,开发人员和ChatGPT用户已可使用该版本,它为AI在商业和IT环境中的应用带来了一些实质性变革。 与之前的版本不同,GPT-5在后台采用了一种新方法,它不再让用户根据速度或准确度来选择不同的模型,而是能即时决定如何响应,如果任务简单,它会快速响应,如果任务更复杂,它会切换到更深入的推理引擎,用户还可以提示它“逐步思考”,以触发更周全的回答。 GPT-5的另一个重大变化是其安全处理方式,旧版本常常直接拒绝回答某些问题,而GPT-5则采用了不同的方法,它不会中断对话,而是尝试在遵守安全规则的同时,结合上下文进行回应。
8/8/2025 2:06:52 PM
Sinisa

OpenAI重磅发布gpt-oss系列开源大模型:媲美 GPT-4o

不论你是独立开发者、企业还是研究机构,现在都可以免费拥有一款与 GPT-4o 接近实力的语言模型。 开源但不“阉割”:媲美 GPT-4o,运行成本极低OpenAI 在这次发布中非常有诚意:gpt-oss-120b:在核心推理任务上已接近 GPT-4o-mini,支持 128k 上下文,单卡 80GB GPU 可跑。 gpt-oss-20b:性能对标 GPT-3.5(o3-mini),仅需 16GB 显存,可部署于消费级设备、本地推理、离线使用等场景。
8/7/2025 2:05:40 PM
AI大模型应用开发

揭秘大模型的魔法:实现带可训练权重的自注意力机制

大家好,我是写代码的中年人。 上一篇我们实现了一个“无可训练参数”的注意力机制,让每个词都能“看看别人”,计算出自己的上下文理解。 虽然实现起来不难,但它只是个“玩具级”的注意力,离真正的大模型还差了几个“亿”个参数。
8/4/2025 9:31:49 AM
写代码的中年人

我国大模型应用个人用户注册超 31 亿

AI在线 7 月 31 日消息,据中国新闻网报道,记者从国家网信办获悉,当前 AI 正通过网页、移动应用、API 接口、本地部署、云服务部署等多种方式为用户提供服务。 据不完全统计,大模型应用的个人用户注册总数已超过 31 亿,API 调用用户总数超过 1.59 亿。 AI在线注意到,今年以来我国基础大模型的迭代速度加快,大模型在电子、原材料、消费品等行业加快落地。
7/31/2025 11:50:05 AM
浩渺

刚刚,扎克伯克公开信:Meta不会开源全部模型

Meta 联合创始人兼首席执行官马克・扎克伯格从 OpenAI、谷歌和苹果等公司挖走了众多顶尖 AI 研究人员,并开出了数亿美元的薪酬,此举震惊了整个科技行业。 现在,他正在更多地分享他对超级智能的愿景。 在 Meta 财报电话会议召开前几个小时,扎克伯格一封公开信广为传播。
7/31/2025 9:31:52 AM
机器之心

我国大模型数量居全球首位,达到 1509 个、占比达 40%

AI在线 7 月 27 日消息,据央视新闻报道,今年以来我国基础大模型的迭代速度加快,大模型在电子、原材料、消费品等行业加快落地。 记者从世界人工智能大会上获悉,当前全球已发布的大模型总数达到 3755 个,其中,我国企业贡献了 1509 个(AI在线注:占比达 40%),数量居全球首位。 据AI在线此前报道,中国互联网络信息中心(CNNIC)今年 7 月在京发布第 56 次《中国互联网络发展状况统计报告》。
7/27/2025 1:24:44 PM
浩渺

OpenAI 董事会主席:如果你想快速烧掉百万美元,就开发自己的 AI 模型吧

AI在线 7 月 26 日消息,据《商业内幕》今日报道,OpenAI 董事会主席 Bret Taylor 认为,训练新 AI 模型是“一种快速消耗数百万美元的好方法”。 他建议,AI 创始人应集中精力打造服务和应用场景,而不是去开发全新的前沿 AI 模型。 “除非你在 OpenAI、Anthropic、谷歌或 Meta 工作,否则你不太可能在做这种事情。
7/26/2025 5:23:13 PM
清源

“流量波动”下的DeepSeek:东南亚机遇显现,但观望心态未解

几个月前,当DeepSeek横空出世、席卷全球时,曾引发行业欢呼雀跃。 但数月过去,“DeepSeek热潮已过”的声音在国内外蔓延。 关注其近期表现,或许能让我们深入理解中国大语言模型(LLM)存在的机遇和挑战。
7/25/2025 11:44:34 AM
小刀

DeepSeek 丢了开源第一王座,但继任者“Kimi K2”依然来自中国

几千人盲投,Kimi K2 超越 DeepSeek 拿下全球开源第一! 歪果网友们直接炸了,评论区秒变夸夸打卡现场:今天,竞技场终于更新了 Kimi K2 的排名情况 ——开源第一,总榜第五,而且紧追马斯克 Grok 4 这样的顶尖闭源模型。 并且各类单项能力也不差,能和一水儿闭源模型打得有来有回:连续多轮对话并列第一,o3 和 Grok 4 均为第四;编程能力第二,和 GPT 4.5、Grok 4 持平;应对复杂提示词能力第二,和 o3、4o 位于同一梯队;……甚至眼尖的朋友也发现了,唯二闯入总榜 TOP 10 的开源模型都来自中国。
7/18/2025 5:59:31 PM

两位AI传奇预测编程的未来,但你想不到

当你刷着技术动态,忽然看到又一条大胆宣称:“AI将在2026年取代所有程序员。 ”这时,OpenAI联合创始人Andrej Karpathy和亚马逊、谷歌资深工程师Steve Yegge给出了他们的真实预测,结果完全颠覆了这种说法。 他们的观点是:大家都想反了。
7/18/2025 9:35:43 AM
前端小智

OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

AI在线 7 月 17 日消息,据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”。 目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。 我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。
7/17/2025 3:12:59 PM
清源

从聊天记录到数字资产:MIRIX 让记忆可买卖

大家好,我是肆〇柒。 当下,LLM 智能体在各种复杂任务中表现得越来越出色。 然而,记忆这一关键要素却始终制约着 LLM 智能体的进一步发展。
7/17/2025 10:08:30 AM
肆零柒

RAG 中文本分块全攻略,这个项目让效率狂飙

在构建 Retrieval-Augmented Generation(RAG)系统时,文本分块作为关键前置环节,其质量直接影响检索精度与生成内容的相关性。 今天给大家推荐一个自己近期整理的项目 ——Awesome-Chunker,一站式聚合并复现了当下主流的文本分块技术,从经典方法到前沿算法应有尽有,助你在 RAG 开发中少走弯路! 1、项目核心价值 让分块不再是难题在 RAG 任务的探索之路上,相信不少研究者都和我一样,为寻找一个能系统提升分块质量的项目而苦恼。
7/17/2025 9:35:26 AM
Goldma

“我没错!”GPT-4o嘴硬翻车,AI在黑天鹅事件面前集体宕机

来自哥伦比亚大学、Vector人工智能研究所以及南洋理工大学的一个联合研究团队发现:人工智能模型在处理意外事件时的推理能力存在严重缺陷。  即便是如GPT-4o和Gemini 1.5 Pro这样的顶尖视觉语言模型(VLM),其表现也远逊于人类,差距最高可达32%。  论文地址:《黑天鹅》的研究指出,当前主流的AI评估方式普遍存在一个根本性问题:大多数基准测试围绕“常规模式”构建,也就是说,它们聚焦于可预测、规律清晰的视觉场景。
7/17/2025 7:19:35 AM
大数据文摘