AIGC宇宙 AIGC宇宙

理论

五个月估值120亿!OpenAI前CTO自曝首个多模态AI,竟要免费开源

OpenAI前CTO初创,又拿到新融资了! 一早,Mira Murati官宣由a16z领投20亿美元融资,至此,Thinking Machines Lab估值120亿美元。 同时,英伟达、AMD、Accel、ServiceNow等多家明星风投也参与了本次融资。
7/16/2025 9:44:29 AM

OpenAI出手,Windsurf背刺数百员工?

Sam Altman最近在一次演讲中说:"我认为收购是糟糕的,我通常会不惜一切代价避免它们。 "但就在他说这话的时候,一个令人震惊的故事正在硅谷悄然展开。 这个故事涉及一家名为Windsurf的AI编程创业公司,一笔30亿美元的收购协议,以及一场被称为"虚假拥抱"的商业阴谋。
7/15/2025 1:35:11 PM
阿丸笔记

AI 为何能查天气、订机票?揭秘大模型背后的“神秘工具箱”

你有没有想过,为什么 AI 能回答“今天上海天气怎么样? ”这种实时问题,甚至帮你预订机票? 明明它的训练数据截止到去年,怎么会对现在的事情了如指掌?
7/15/2025 9:44:16 AM
红绿灯灯灯灯

马斯克的Grok 4敢说ChatGPT不敢说的话?AI"政治正确"的边界在哪

一个明显的趋势是,AI大模型正在分化成两个阵营:一边是"政治正确"的主流AI,另一边是"敢说真话"的挑战者。 7月9日晚,马斯克的xAI正式发布Grok 4,宣称要打造"最强AI模型",而且绝不做"觉醒AI"。 这场发布会有点特别。
7/14/2025 1:55:00 AM
阿丸笔记

OpenAI去年挖的坑填上了!奖励模型首现Scaling Law,1.8B给70B巨兽上了一课

一直以来,让AI更懂人类都是大模型领域的核心议题。 而奖励模型(RM)便是解决如何「理解人类偏好」的核心技术,同时也是限制后训练效果的关键因素。 2024年12月,OpenAI提出了一种新的强化微调(Reinforcement Fine-tuning,RFT)技术。
7/11/2025 1:33:03 PM
新智元

一文搞懂 | 大模型为什么出现幻觉?从成因到缓解方案

1、前言随着大模型(Large Language Models, 以下简称LLM)迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。 所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。 比如,当你询问“世界上最长的河流是哪条?
7/11/2025 9:50:52 AM
火山引擎云安全

多模态大模型的“安全锁”:SAPT 软提示调优技术

引言:多模态大模型的安全困境在人工智能技术飞速发展的当下,多模态大模型(VLM)正以前所未有的速度融入我们的生活,从智能助手到图像识别,从文本生成到跨模态任务处理,它们展现出了令人惊叹的能力。 然而,随着 VLM 在实际应用中的广泛部署,一个不容忽视的问题逐渐浮出水面——其安全性漏洞正成为潜在的“ ticking bomb”。 近期,一篇题为《The Safety Reminder: A Soft Prompt to Reactivate Delayed Safety Awareness in Vision-Language Models》的论文,为我们揭开了 VLM 安全性研究的新篇章。
7/11/2025 1:23:00 AM
果冻布丁兔

科普:AI 是如何理解问题的?它能像人类一样思考吗?

现有的AI推理的局限性在人类的日常生活中,我们并不需要把思维的每一步说出口或画出来才能思考。  比如:你在脑子里可以默默思考一篇文章的结构,或者在脑海中想象一下你家房间的布局。  思考这些都不需要真正动笔或动手去画。
7/10/2025 3:29:10 PM
AI拍档

下一代AI需要「思想微积分」!华人团队重磅揭秘,AI方法论三连发

AI的时代洪流滚滚向前,我们每个人都身处其中,感受着它的光荣与梦想,也承担着它的迷茫与代价。 一方面,是资本市场的狂欢盛宴。 OpenAI的估值冲向千亿美金,英伟达的市值超越众多老牌巨头,任何与「AI」沾边的概念都能轻易点燃投资者的热情。
7/10/2025 2:52:45 PM
新智元

刚刚,Ilya Sutskever宣布自任CEO:联创被Meta挖走了

Meta 的挖掘机,终于挖到了 Ilya 大神的头上。 周五凌晨,OpenAI 联合创始人 Ilya Sutskever(伊尔亚・苏茨克维)久违地在社交媒体发声。 我向我们的团队和投资者发送了以下信息:正如你们所知,Daniel Gross 在我们公司的时间已接近尾声,自 6 月 29 日起,他已正式退出 Safe .
7/4/2025 9:14:10 AM
机器之心

Meta-Think ≠ 记套路,多智能体强化学习解锁大模型元思考泛化

本文第一作者为上海交通大学计算机科学四年级博士生万梓煜,主要研究方向为强化学习、基础模型的复杂推理,通讯作者为上海交通大学人工智能学院温颖副教授和上海人工智能实验室胡舒悦老师。 团队其他成员包括来自英属哥伦比亚大学的共同第一作者李云想、Mark Schmidt 教授,伦敦大学学院的宋研、杨林易和汪军教授,上海交通大学的温潇雨,王翰竟和张伟楠教授。 引言最近,关于大模型推理的测试时间扩展(Test time scaling law )的探索不断涌现出新的范式,包括① 结构化搜索结(如 MCTS),② 过程奖励模型(Process Reward Model ) PPO,③ 可验证奖励 (Verifiable Reward) GRPO(DeepSeek R1)。
7/4/2025 8:53:00 AM

华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

大模型越来越大,通用能力越来越强,但一遇到数学、科学、逻辑这类复杂问题,还是常“翻车”。 为破解这一痛点,华为诺亚方舟实验室提出全新高阶推理框架 ——思维森林(Forest-of-Thought,FoT)。 该方法借鉴人类“多角度思考、反复验证”的认知方式,打破传统LLM的线性推理范式,通过构建多棵并行推理树,引入动态自我修正机制与多视角共识决策策略。
7/4/2025 8:53:00 AM

重磅发现!大模型的「aha moment」不是装腔作势,内部信息量暴增数倍!

刘勇,中国人民大学,长聘副教授,博士生导师,国家级高层次青年人才。 长期从事机器学习基础理论研究,共发表论文 100 余篇,其中以第一作者/通讯作者发表顶级期刊和会议论文近 50 篇,涵盖机器学习领域顶级期刊 JMLR、IEEE TPAMI、Artificial Intelligence 和顶级会议 ICML、NeurIPS 等。 你肯定见过大模型在解题时「装模作样」地输出:「Hmm…」、「Wait, let me think」、「Therefore…」这些看似「人类化」的思考词。
7/4/2025 8:47:00 AM

大模型越反思越错,原来是长链推理通过自我说服加重幻觉 | 北邮

来自北京邮电大学的研究团队通过思维链审计实验,首次定量揭示了这一“越想越错”现象背后的元认知偏差:长链推理中的反思不是纠错机制,而是给幻觉颁发“理性证书”——模型为保持与用户提示语义一致,宁可篡改协议定义也不否定前提。 风险缺口:长链CoT放大“误差滚雪球”推理大模型(RLLMs)能把复杂问题拆解成几十步推理,再给出看似缜密的结论。 然而,随着推理链条变长,一个令人不安的趋势浮出水面——错误不再是偶发失误,而是沿链条滚雪球式放大。
7/4/2025 8:42:00 AM

刚刚,Ilya官宣出任SSI CEO!送走「叛徒」联创,豪言不缺GPU

小扎到处挖人的举动,不仅是惹恼了奥特曼,连Ilya都忍无可忍,被炸出来了! 就在刚刚,消失许久的Ilya忽然现身X。 他发文表示,自己已亲自挂帅「安全超级智能」(SSI)的CEO。
7/4/2025 8:33:30 AM
新智元

Sam Altman的“温和奇点”已至:我们真的越过了AI的“事件视界”吗?

近日,OpenAI 的掌舵人 Sam Altman 在其个人博客上发表了一篇题为《The Gentle Singularity》(温和的奇点, )的重磅文章,再次将人工智能的未来推向了舆论的风口浪尖。 Altman 以其一贯的前瞻性视角,大胆宣称:“我们已越过事件视界;起飞已经开始。 人类已接近构建数字超级智能,而且至少到目前为止,它远没有看起来那么怪异。
7/4/2025 8:25:03 AM
白明的赞赏账户

如何用DeepSeek做数据分析?这套方法超神!

同学们,Deepseek用起来没有! 经过半年磨合,陈老师是发现这玩意越用越好用。 今天把使用心得分享给大家。
7/4/2025 7:51:40 AM
接地气的陈老师

从封闭到放开:百度开源文心 4.5 全家桶,多项基准上领先 Deepseek,行业天花板再抬高

百度突然宣布,将旗下最新的大语言模型文心大模型4.5(ERNIE 4.5)全系列开源,震动整个AI行业。 此次开源采用Apache 2.0许可协议,意味着全球开发者不仅可以免费下载和使用,也可以自由修改与商用。 图片这标志着百度战略方向的重大转变。
7/3/2025 4:27:26 PM