AIGC宇宙 AIGC宇宙

理论

卡神新项目刷屏!AI老鸟深度解析Karpathy的开发Trick,网友:700块复刻ChatGPT!终于能亲自研究ChatGPT

编辑 | 云昭复刻 ChatGPT 有多难? 商业层面看,很难。 但对于众多的开发者、甚至实验室的研究生而言,从今天起,可能就要有标准答案了。
10/15/2025 6:58:51 AM
云昭

OpenAI自研芯片内幕曝光!18个月前开始用AI优化芯片设计,比人类工程师更快

“用模型优化芯片设计,比人类工程师更快。 ”“合作水到渠成,相关项目已经持续了约18个月……”好家伙,就在OpenAI博通官宣完合作之后,双方头头儿开始齐聚一堂亲口爆料了! OpenAI这边派出了CEO奥特曼(右2)和总裁Greg Brockman(右1),博通则派出了总裁兼CEO Hock Tan(C位)以及半导体解决方案事业群总裁Charlie Kawwas(左2)。
10/15/2025 12:00:05 AM

国内安全厂商应对大模型新风险的主要措施

大型语言模型(LLMs)的飞速发展,正在为企业带来前所未有的业务创新,但同时也带来了一系列超出传统网络安全范畴的“新”威胁。 攻击者不再满足于入侵服务器,而是通过恶意输入来操纵模型行为、窃取模型数据甚至损害模型本身,这些新威胁使得为大模型构建一个强大的安全防护体系,成为企业在AI时代下的当务之急。 那么,国内厂商是如何应对这些“新”威胁,我们又该如何防御呢?
10/15/2025 12:00:00 AM

前董事长罕见曝OpenAI的“痛苦与困境”:我们正走向计算稀缺世界!内部GPU分配如玩俄罗斯方块,Sora2实为被削弱的原始模型

编辑 | 听雨“我们正走向一个计算极度稀缺的世界,而能源将是下一个巨大的瓶颈。 ”“未来,所有的授权都会变成‘角色扮演’授权。 ”“我们希望能建立可以自主思考一年、甚至十年的AI。
10/14/2025 2:43:11 PM
听雨

LLM-as-a-Judge 的评估陷阱:TrustJudge 如何用熵保留机制提升一致性

大家好,我是肆〇柒。 今天要和大家一起阅读一项来自北京大学、新加坡国立大学、东京科学研究所、南京大学、Google DeepMind、西湖大学与东南大学等机构联合发表的重要研究——《TrustJudge: Inconsistencies of LLM-as-a-Judge and How to Alleviate Them》。 这项工作首次系统揭示了当前主流大模型自动评估范式中存在的两类根本性逻辑矛盾,并提出了一套无需额外训练、即插即用的概率化评估框架,显著提升了评估的一致性与可靠性。
10/14/2025 9:22:48 AM
肆零柒

OpenAI重磅发布AgentKit - AI代理开发进入全新时代

在AgentKit问世之前,开发AI代理意味着要在碎片化的工具之间艰难周旋——复杂的编排系统没有版本控制、定制连接器开发、手动评估流程、提示调优,以及在正式发布前数周的前端开发工作。 如今,AgentKit让开发者能够通过可视化界面设计工作流,并使用全新的构建模块更快速地嵌入代理用户界面。 AgentKit核心组件全解析Agent Builder:提供可视化画布,用于创建和版本管理多代理工作流,支持拖拽式节点操作、工具连接和自定义防护栏配置。
10/14/2025 9:15:31 AM

刚刚,OpenAI官宣自研造芯,联手博通开发10吉瓦规模的AI加速器

今天凌晨,OpenAI 又搞出了一个大新闻! 这家 AI 巨头宣布与全球领先的芯片厂商之一博通建立战略合作,共同部署由前者设计的 10 吉瓦规模的 AI 加速器。 吉瓦是一个功率单位,1 吉瓦等于 100 万千瓦。
10/14/2025 9:05:00 AM

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

大模型也有「EMO」时刻。 比如,Gemini在Cursor里调试编译错误后,打开了自责「循环模式」,把「I am a disgrace(我很丢脸)」重复了86次。 尽管大模型在复杂推理能力上已有了巨大进步,但上述现象仍使一部分专家认为:思考模型,只提供了「思考的幻觉」,因为当任务被拉长时它们最终会失败。
10/14/2025 9:04:00 AM

DeepSeek-V3.2-Exp:用稀疏注意力机制,开启长文本处理的“加速引擎”

随着人工智能技术的飞速发展,大语言模型在各个领域都展现出了巨大的潜力。 然而,传统的大语言模型在处理长文本时面临着效率低下和计算成本高昂的问题。 为了解决这一难题,DeepSeek-AI推出了实验性版本DeepSeek-V3.2-Exp,该模型通过引入DeepSeek稀疏注意力机制(DSA),在保持与V3.1-Terminus相当性能的同时,显著提升了长文本处理的效率。
10/14/2025 9:00:48 AM
AGI小兵

OpenAI奥特曼:能被ChatGPT消灭的工作不是真正的工作

你今天的工作,或许并不是真正的工作这句耸人听闻的言论出自奥特曼与Rowan Cheung最新的采访。 在这场长达30分钟的对谈里,除了自己对AI与工作的思考,奥特曼还分享了GPT-6的进展、ChatGPT是否会成为美国版微信、AGI的设想变化、AI未来的交互模式,以及自己被恶搞成Sora热梗的感受。 可以说,这次对话涵盖了从娱乐八卦到前沿科技的多重视角,既有趣味,也直指未来趋势。
10/14/2025 8:55:00 AM

OpenAI官宣自研首颗芯片,AI界「M1时刻」九个月杀到!联手博通三年10GW

OpenAI算力的尽头,是自研芯片。 今天,OpenAI重磅官宣与博通合作,打造新一代AI定制加速器,部署规模达10GW。 图片10GW=800多万户美国家庭供电,是胡佛水坝发电量的5倍2026年下半年,正式开始部署,预计到2029年底全部完成。
10/14/2025 8:31:53 AM
新智元

大模型赋能文化遗产数字化:古籍修复与知识挖掘的技术实践

在文化遗产数字化领域,大模型的核心应用难点在于如何处理古籍中大量的异体字、残缺文本与模糊语义,尤其是面对明清时期的手写残卷,传统的文字识别技术不仅准确率低下,更无法理解古籍中蕴含的历史语境与专业术语。 我在参与某博物馆古籍数字化项目时,首先遭遇的便是大模型对古籍文字的“识别盲区”—初期使用通用大模型识别一本明代医学残卷,发现其将“癥瘕”误判为“症痕”,把“炮制”错解为“泡制”,更无法关联“君臣佐使”等中医方剂配伍逻辑,导致提取的知识完全偏离原意。 为解决这一困境,我没有直接进行模型微调,而是先搭建“古籍文字与语境知识库”:通过整理《说文解字》《康熙字典》等权威字书,以及近现代古籍整理学术成果,构建包含5000 异体字、通假字的对照词典,每个文字标注字形演变、常见语境与释义差异;同时,针对医学、天文、历法等专业领域古籍,收集对应的行业术语库,标注术语的历史用法与现代对应概念(如“勾陈”对应天文领域的“小熊座”)。
10/13/2025 6:10:28 PM
许辉

GPT-6或要有生命了!MIT神作:一套神框架让大模型“自己微调自己”,实验已通过!超过GPT4.1,网友:冻结权重时代结束了

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)在过去两年,大语言模型几乎定义了整个 AI 发展的节奏。 但有个问题一直没变:模型再强,也不会自己学习。 每次要让它掌握新知识,都必须人工投喂数据、重新训练。
10/13/2025 2:00:24 PM
云昭

别只会用 ChatGPT!前端 + AI,你必须要会这些!

Hello,大家好,我是 Sunday。 最近很多同学特别关注 AI 相关的领域。 c但是,AI 技术发展太快了,AIGC、RAG、Agent、Function Call、MCP 等等的各种热词层出不穷的。
10/13/2025 2:00:00 AM
程序员Sunday

超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器

当大语言模型生成海量数据时,数据存储的难题也随之而来。 对此,华盛顿大学(UW)SyFI实验室的研究者们提出了一个创新的解决方案:LLMc,即利用大型语言模型自身进行无损文本压缩的引擎。 基准测试结果表明,无论是在维基百科、小说文本还是科学摘要等多种数据集上,LLMc的压缩率都优于传统的压缩工具(如ZIP和LZMA)。
10/11/2025 6:05:23 PM

Anthropic 最新研究:仅需250份恶意文档,大模型即可被攻陷,无关参数规模

2025年10月8日,英国AI安全研究院、Anthropic、艾伦·图灵研究所与牛津大学OATML实验室等机构联合发布的一项研究,打破了业界关于“大模型越大越安全”的核心假设。 这项研究题为《Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples》,论文发表于arXiv。 研究团队发现,只需约250个恶意文档,就足以在任意规模的大语言模型(LLM)中植入可触发的后门(Backdoor)。
10/11/2025 3:18:35 PM

熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 先坦白一件事:AI Agent 不是魔法。 它们脆弱、多变,更像是喝了咖啡的实习生,而不是能独立完成任务的员工。
10/11/2025 2:04:09 PM
云昭

刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈

过去一年,OpenAI在算力上斥资70亿美元。 其中,大模型研发占了最大头——50亿美元,而推理计算仅用了20亿美元。 图片可见,LLM训练正吞噬无尽的算力,这也是OpenAI最近一直在大举扩展超算建设与合作的重要原因。
10/11/2025 10:34:49 AM
新智元