AIGC宇宙 AIGC宇宙

理论

我是如何玩转Claude100 万 Token上下文的?(附代码实战)

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)进入8月后,Anthropic 推出了一个相当让开发者兴奋的更新! 那就是:Claude Sonnet 4 现在支持 100 万 token 的上下文窗口 —— 这相当于在一次对话中处理 75 万个单词,或 7.5 万行代码。 (1个token相当于0.75个单词,1行代码大概10个单词长度。
8/29/2025 2:17:01 PM
云昭

输入成本接近免费,推理根本不烧钱!ChatGPT毛利超5倍,Claude赚麻溢价20倍!大佬起底:别被忽悠了!API利润超80%

编辑 | 云昭OpenAI 的 ChatGPT 也好、Claude 也好,国内的 DeepSeek也好,到底在推理上是烧钱,亏钱,还是挣钱? ChatGPT Pro 的毛利高达 5-6 倍;Claude 做开发者的生意更赚钱:Claude Code Max 的毛利润率竟高达 12-20 倍溢价。 怪不得大家都下场卷编程赛道!
8/29/2025 2:06:40 PM
云昭

数据科学新风口?三大环节搞定ML「资产」管理,VLDB'25最新教程抢先看!

大模型时代,模型、数据与各种「参数/脚本/许可证」等ML资产爆炸式增长,但真正能被发现、复用、合规使用的比例并不高,这正在成为AI生产力落地的「隐形天花板」。 以知名开源平台HuggingFace为例,平台目前托管超过150万个模型,每月还在新增约10万个模型,总数据存储量高达17PB。 然而超过半数的模型缺乏基本文档说明,不到8%的模型拥有明确的许可证。
8/29/2025 9:16:00 AM

聊聊大模型推理系统之 Arrow:自适应调度实现请求吞吐提升7.78倍背后的三大创新

在大模型(LLM)推理服务中,如何在输入/输出长度剧烈波动的现实场景下,依然保持高吞吐与低延迟? 传统静态资源分配策略往往导致计算资源严重浪费。 近期,来自中国科学技术大学、北航与京东的研究团队提出了一项名为 Arrow 的自适应调度机制,通过无状态实例与弹性实例池,实现了高达 7.78 倍 的请求服务速率提升。
8/29/2025 1:15:00 AM
机智流科技

OpenAI/微软争夺AGI控制权!重组谈判激烈,年底谈不成软银700亿或撤

OpenAI就重组问题与微软持续进行了胶着的谈判,重写合作合同,至今悬而未决。 今年年底是一个关键节点,关系到软银对OpenAI的100亿美元投资能否到账。 OpenAI在接受了微软的注资后,双方的利益诉求点始终处在不同的轨道上。
8/28/2025 3:27:22 PM

刚刚,全球AI百强榜发布!ChatGPT稳坐第一,DeepSeek第三,前50有22个来自中国

就在刚刚,a16z最新一期的「Top 100消费级GenAI应用榜单」出炉! 本期榜单传递出一个最核心信息:AI产品竞争的生态格局正日趋稳定! 网页排行前50移动应用排行前50不论是你常用的DeepSeek、豆包、夸克,还是一直领先的ChatGPT和Gemini,或者是新进榜单Lovable等,这场AI产品的「百团大战」依然在继续!
8/28/2025 10:07:18 AM
新智元

「精而巧」的端侧大模型为何火了?

大模型爆火伊始,很多厂商提的最多的就是自家的模型(云端大模型)参数有多大,性能有多好。 但近两年,相较云端大模型外,端侧大模型的热度被炒的越来越高。 很重要的原因在于,越来越多的厂商开始布局端侧大模型赛道。
8/27/2025 4:05:39 PM

Meta两员大将回流OpenAI,30天爆赚800万?刚入职闪回巢,小扎钞能力失效

成立仅两个月,小扎「梦之队」MSL已痛失三位核心大脑。 最新爆料称, 两位前OpenAI员工Avi Verma和Ethan Knight,加入Meta一个月再次回流到OpenAI。 1亿美金诱人薪酬包,也没能留住顶尖人才,难道小扎的「钞能力」真的失效了吗?
8/27/2025 3:39:11 PM

Claude抢跑OpenAI!上线插件杀入浏览器赛道!更放话:大势所趋!竞品昨日刚翻车,泄露用户密码!网友:AI别打钱给缅甸!

出品 | 51CTO技术栈(微信号:blog51cto)赢了 OpenAI 一步,没想到是 Claude 率先杀入 AI 浏览器赛道! Anthropic 已经启动“Claude for Chrome”内测,让AI 直接在网页里替你“点点点”,帮你订外卖、筛房源、甚至处理企业表单。 图片加入waitlist:,就被Claude端上了桌,这无疑是一场抢占先机的豪赌。
8/27/2025 2:02:32 PM
伊风

当IM遇上OpenAI,简历到底该怎么写?

分布式IM即时通讯系统本质上就是对线上聊天和用户的管理,针对聊天本身来说,最核心的需求就是:发送文字、表情、图片、文件、语音、视频、消息缓存、消息存储、消息未读、已读、撤回,离线消息、历史消息、单聊、群聊,多端同步,对接OpenAI大模型,以及其他一些需求。 对用户管理来说,存在的需求包含:添加好友、查看还有列表、删除好友、查看好友信息、创建群聊、加入群聊、查看群成员信息、@群成员、退出群聊、修改群昵称、拉人进群、踢人出群、解散群聊、填写群公告、修改群备注以及其他用户相关的需求等。 注:拿小本子记录下,后续可以写到简历上的整合了OpenAI大模型的分布式IM即时通讯系统,从此,简历上又多了一个可以拿的出手的高并发、高性能、高可用、可监控、可预警、可伸缩,支持无限扩展的真实业务场景项目。
8/27/2025 7:50:11 AM
冰河

从 “只会聊天” 到 “能办实事”:OpenAI Function Call 彻底重构 AI 交互逻辑(附完整接入指南)

在 AI 开发领域,有一个痛点几乎所有开发者都遇到过:当你用 OpenAI 的 API 开发聊天机器人时,它能侃侃而谈,但让它帮你查天气、订机票、调用公司内部接口时,它要么答非所问,要么直接 “瞎编” 一个结果。 这不是大模型不够聪明,而是传统的 LLM(大语言模型)本质上是 “文本生成器”—— 它擅长根据上下文生成连贯的文字,但缺乏与外部系统交互的能力。 直到Function Calling(函数调用)出现,这个局面才被彻底打破。
8/26/2025 9:17:02 AM

GPT-5系统提示词突遭泄露,17803 token曝光OpenAI小心思!

新一版疑似GPT-5提示词,在GitHub上曝光了。 图片项目地址:(Tokenizer)中,提示词足足有17803 token,堪称「巨无霸」级别的指令。 图片这份文档出自Ásgeir Thor Johnson,他在Github上持续整理了几乎所有已经泄露的模型提示词。
8/25/2025 10:21:29 AM
新智元

马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝

什么? 马斯克终于开源了Grok-2! 一大早,xAI正式官宣,向所有人开源Grok-2!
8/25/2025 9:10:00 AM

连烤面包机都能跑的“大模型”!DeepMind 推出超轻量 Gemma 3 270M(≈0.27B)

谷歌 DeepMind 发布了全新的 Gemma 3 270M。 它只有 2.7 亿参数,比七百亿参数级别的大模型轻了约 250 倍,却依旧保持强悍。 DeepMind 并不想拿它硬刚 GPT-4o 或 Gemini Ultra,它生来就为极致高效、本地部署而生。
8/25/2025 12:00:01 AM

大模型的基石:LLM预训练全解析

前言过去几年,大语言模型(LLM, Large Language Models)逐渐成为人工智能领域的核心驱动力。 从GPT到LLaMA,再到国内外涌现的大大小小模型,它们无一不是在“预训练”这一步骤中打下了坚实的基础。 可以说,预训练是LLM的生命起点,是它们从“婴儿”成长为“博学者”的关键阶段。
8/24/2025 9:24:07 AM
AI大模型应用开发

DeepSeek V3.1:低调发布,重磅发声

译者 | 李睿审校 | 重楼DeepSeek V3.1的发布并没有举办大张旗鼓的新闻发布会,也没有铺天盖地的宣传活动。 它在Hugging Face平台上悄然发布,在短短数小时内就吸引了众人的目光。 该模型拥有6850亿个参数,上下文窗口可扩展至128k个令牌,这不仅仅是增量更新,而是开源人工智能领域的一个重要里程碑。
8/23/2025 8:20:29 AM
李睿

谷歌技术报告披露大模型能耗:响应一次相当于微波炉叮一秒

大模型耗电惊人,舆论一浪高过一浪。 现在,谷歌用硬核数据强势还击。 一次Gemini查询仅能耗0.24wh,相当于微波炉运行1秒,排放0.03 g CO₂e,甚至比人放一次屁还少,同时消耗约5滴水。
8/22/2025 3:08:38 PM

三观碎了!老鸟自曝某AI初创奇葩工作经历:代码全靠ChatGPT拼接,脚本命名憋笑,高危慎入!创始人:技术栈主要是OpenAI

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)太狗血了! 劝各位,如果正在找AI方面的工作,可得擦亮眼睛了! 今天,小编碰到了一个荒诞得有点狗血的真实故事。
8/22/2025 2:12:21 PM
云昭