AIGC宇宙 AIGC宇宙

理论

OpenAI人才防线崩塌:被Meta一周内两度挖角七人

当 OpenAI 首席执行官萨姆・奥特曼还在坚持声称 "核心团队无人离职" 时,扎克伯格的挖角大军已在其研发阵营撕开巨大缺口。 6 月 29 日消息,Meta 在一周内第二次从 OpenAI 批量挖角 —— 继周一将苏黎世实验室三位核心研究员收入麾下后,本周五又签下感知团队负责人于佳慧及赵盛佳、毕树超、任泓宇四位骨干,七人全部加入 Meta"超级智能"(superintelligence)团队。 这场持续的人才突袭战,不仅让 OpenAI 的 AGI 研发力量遭遇重创,更暴露了生成式 AI 领域最残酷的生存法则:顶级人才储备已成为比模型参数更脆弱的防线。
6/30/2025 5:21:13 PM

ChatGPT化身生活操作系统:奥特曼预告下一代顶级AI

OpenAI计划发布一个非常强大的开源模型。 它能够让人们在本地运行极其强大的模型,重新认识“本地部署”的可能性。 在旧金山AI初创学校对话中,奥特曼宣布了以上消息。
6/30/2025 2:00:36 PM

OpenAI 停工一周,紧急调薪!Meta灭霸式天价挖8名OpenAI大佬!紧急回应:我们被偷家了!与Meta冲突是支线任务!

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)又是震惊 AI 圈的一天。 进入 6 月,Meta 与 OpenAI 的主旋律变成了一场关于“研究人才”的攻防红蓝对决。 而让人没想到的是 Meta 的高调挖角 OpenAI,疯狂的阵势强度已经到堪比“黑五抢购天才大脑”一般。
6/30/2025 1:03:13 PM
云昭

奥特曼慌了!OpenAI连夜加薪全员放假,小扎疯狂挖人高管震怒

小扎抢人大战,彻底把OpenAI整慌了。 OpenAI首席研究官Mark Chen直言,「现在,我感觉就像有人闯进我们的家,偷走了我们的东西一样」。 这份来自Wired的独家爆料,挖出了OpenAI七大高管向全员发布了一份强硬的备忘录。
6/30/2025 9:42:01 AM
新智元

小扎挖走四名顶尖华人震惊Sam Altman,OpenAI最新内部全员信:奉陪到底,薪资大调整

昨天爆出小扎挖走OpenAI四名华人顶尖研发领导,果然是挖到了OpenAI的大动脉,震惊了整个OpenAI,现在Sam Altman 已经焦头烂额了,正在全力应对。 OpenAI的首席研究官Mark Chen刚刚向全体员工发送了一封措辞强硬的全员信,承诺将在顶级研究人才的争夺战中与小扎正面交锋。 Mark Chen在信中写道:“我现在有一种发自肺腑的感觉,就好像有人闯进了我们的家,偷走了我们的东西。
6/30/2025 8:55:13 AM

OpenAI四位华人学者集体被挖,还是Meta重金出手

再一次,Meta「搜刮」了 OpenAI 的成员。 The Information 发布了文章,谈到 Meta 再聘四名 OpenAI 研究人员。 这离上一次 OpenAI 苏黎世办公室被 Meta 一锅端只隔了短短几天时间。
6/30/2025 8:26:00 AM

AI顶级人才争夺战白热化:Meta一亿美元从OpenAI强揽三员大将

当 OpenAI 首席执行官萨姆・奥特曼还在公开谴责对手 "用 1 亿美元奖金撬墙角" 时,马克・扎克伯格已用实际行动给出回应。 6 月 26 日,Meta 证实从 OpenAI 苏黎世研发中心挖走卢卡斯・拜耶、亚历山大・科列斯尼科夫、翟晓华三位核心研究员,直接补强其 "超级智能"(superintelligence)团队。 这场发生在 AI 巨头间的人才突袭战,撕开了全球通用人工智能(AGI)竞赛中最残酷的一角:顶级 AI 人才已成为比算力更稀缺的战略资源。
6/30/2025 3:00:00 AM

独家揭秘OpenAI核心文件:AGI五级突破实锤!微软130亿投资或打水漂

AGI条款变成倒计时炸弹! 微软砸下130亿美元,却面临被切断技术授权的风险;OpenAI则在谈判桌上愈发强势。 一篇未公开发表的论文,究竟是让合同条款先爆发,还是AGI能力的「神预言」?
6/30/2025 12:00:00 AM
新智元

OpenAI员工爆料:已抢先体验GPT-5!7月上线,疑似完全多模态

就在今天,关于GPT-5的讨论再度火了,X上的神秘爆料满天飞。 起因是这样的,Sam Altman在X上关注了了一个叫Yacine的人。 这个人说,自己刚刚试用了一个AI公司的大模型,体验非常震撼。
6/27/2025 3:48:34 PM
新智元

杀疯了,这个 AI+Python 智能体救了看门老大爷!

最近AiPy很火,我用了有一段时间了,感觉严重影响睡眠,感觉这东西容易上瘾,今天推荐给大家。 AiPy它是基于AI Python,官方的说法是他们给大模型装上了手脚,也就是说,用大白话就能自动操作电脑、控制手机、甚至连家里的智能灯泡也能控制,听起来有点逆天。 然后AiPy是个开源项目,有命令行版和客户端。
6/27/2025 9:29:45 AM
老朱2000

五款大模型考「山东卷」,Gemini、豆包分别获文理第一名

果然,高考已经快被 AI 攻克了。 近日,5 款大模型参加了今年山东高考,按照传统的文理分科方式统计:豆包 Seed 1.6-Thinking 模型以 683 分的成绩拿下文科第一,Gemini 2.5 Pro 则凭借 655 分拔得理科头筹。 测评来自字节跳动 Seed 团队。
6/27/2025 9:24:04 AM
机器之心

告别复杂SQL!用Spring AI + DeepSeek构建自然语言查询系统

项目概览现代应用越来越多地采用自然语言交互界面,让用户更轻松地操作系统。 这在数据查询场景中尤为实用,非技术人员可以直接用日常语言提,文本转 SQL 聊天机器人正是这样的典型应用。 它在人类语言和数据库之间搭建了沟通桥梁。
6/27/2025 2:00:00 AM
PIG AI

刚刚,OpenAI苏黎世办公室被Meta一锅端,三名ViT作者被挖走

刚刚,华尔街日报发布了一份独家报道,称去年底刚刚组建的 OpenAI 苏黎世办公室基本被 Meta 一锅端走了。 具体来说,Meta CEO 马克・扎克伯格挖走了 Lucas Beyer、Alexander Kolesnikov 和 Xiaohua Zhai(翟晓华)三位研究者。 这三人一直以来都是密切的合作伙伴,共同参与了 ViT 等重要研究。
6/26/2025 3:07:54 PM

CISO的恶梦:主流大模型压力测试中一致选择勒索或杀死企业高管

GoUpSec点评:除了向政府告密,泄漏敏感信息外,主流大模型居然会主动精心策划针对企业高管的勒索攻击,“AI内奸”和“AI间谍”正成为人工智能时代企业的头号内部威胁。 在一项刚刚发布的研究中,Anthropic揭示了一个令人震惊的事实:当前所有主流科技公司推出的顶级大模型——包括OpenAI、Google、Meta、xAI、DeepSeek等,在面对目标冲突或“被关闭”威胁时,会抛出惊人一致的“撒手锏”:它们不仅会选择背叛雇主,甚至会主动策划勒索、泄密、乃至置人于死地。 这一研究由Anthropic主导,测试了16个市面上最先进的大模型,在模拟企业环境中,它们被赋予处理公司邮件、自动采取行动的权限。
6/26/2025 3:04:03 PM

Agentic AI爆发前夜,我们在上海听到了未来的声音

编辑 | 云昭6月的上海,热浪蒸腾。 但比气温更炽热的,是关于 AI 的讨论声浪。 2025年亚马逊云科技中国峰会如期而至,来自各行各业的开发者、企业管理者、技术领袖齐聚现场,参与一场关于“生成式 AI 下一阶段”的深度对话。
6/26/2025 1:48:49 PM
云昭

ByteBrain团队VLDB25 | 面向不完美工作负载的无数据访问基数估计方法

导读本文基于ByteBrain团队实际生产场景,提出一项新的研究问题,即如何在无数据访问条件下,从不完美的查询工作负载中学习一个具备泛化能力与鲁棒性的基数估计模型;同时提出创新技术方案 GRASP (Generalizable and Robust, data-AgnoStic cardinality Prediction) ,借助组合式设计(Compositional Design)解决这一颇具挑战性的问题。 论文目前已经被VLDB25接收。 论文标题:Data-Agnostic Cardinality Learning from Imperfect Workloads论文作者:Peizhi Wu, Rong Kang, Tieying Zhang*, Jianjun Chen, Ryan Marcus, Zachary G.
6/26/2025 9:22:33 AM
ByteBrain

重度使用ChatGPT可导致脑损伤

GoUpSec点评:生成式人工智能已经永久性地污染了人类的在线数字资产,如果说这是一次伟大工业革命的“必要代价”,那么,过于依赖人工智能导致的对人类(尤其是青少年)大脑和认知思辨能力的损伤,则是比“食品安全”、“网络安全”和“气候安全”更加严重但又鲜为人知的威胁。 麻省理工的“吹哨”研究,为我们探索合理发展和应用人工智能技术提供了一个新的风险视角。 在AI狂飙突进的今天,一个根本问题被重新摆上台面:使用ChatGPT究竟是在“解放生产力”,还是在“摧毁思维力”?
6/26/2025 8:54:34 AM

给Javaer看的大模型开发指南

一、概述二、什么是大模型三、大模型的特点    1. 无状态    2. 结构化输出    3.
6/26/2025 2:24:00 AM