文章列表
印度创新试点:AI 聊天机器人助力电子商务购物新方式
近日,印度启动了一项创新试点项目,让消费者能够通过人工智能聊天机器人进行购物和付款。 该项目由 OpenAI 的 ChatGPT 主导,并与谷歌的 Gemini 以及 Anthropic 的 Claude 进行合作开发。 这一举措标志着印度在人工智能领域的快速发展,逐渐成为全球科技公司新的市场焦点。
10/12/2025 9:25:06 AM
AI在线
软银贷款50亿美元助力AI投资,孙正义押注未来科技!
在全球科技投资竞争日益激烈的背景下,日本软银集团近期向全球银行申请了一笔高达50亿美元的贷款。 这一举动旨在进一步增强其资金储备,助力软银创始人孙正义加快在人工智能(AI)领域的布局。 据彭博社的报道,孙正义计划通过抵押旗下芯片部门 ARM 的股票来获得这笔贷款。
10/12/2025 9:25:06 AM
AI在线
OpenAI新研究称GPT-5为迄今“政治偏见最少”的AI模型
根据 OpenAI 的最新研究,刚刚发布的 GPT-5模型在政治偏见方面的表现远远优于以往的同类产品。 这一研究成果由 OpenAI 团队向 Axios 披露,标志着 AI 模型在偏见控制方面的重要进展。 图源备注:图片由AI生成,图片授权服务商Midjourney长期以来,公众和政界人士对 AI 系统的偏见问题表示关注,呼吁提高透明度,并确保这些模型不受偏见的影响。
10/12/2025 9:24:51 AM
AI在线
GPT-5偏见测试结果公布:500问验证客观性飞跃,情感化问题仍是挑战
OpenAI最新向Axios披露的研究成果显示,刚刚发布的GPT-5模型在政治偏见控制方面取得突破性进展,偏见水平较前代产品降低30%。 长期以来,AI系统的偏见问题一直是公众和政界关注的焦点。 今年7月,美国政府发布行政命令,要求政府使用的AI系统须剔除"觉醒型"特征,避免政治或意识形态偏见,但具体合规标准仍不明确。
10/12/2025 9:24:09 AM
AI在线
OpenAI 被指通过警方施压 AI 监管倡导者
近日,OpenAI 被指控向 AI 监管倡导者 Nathan Calvin 的家中派遣警察,以递送一份要求其提供个人消息的传票。 Calvin 是一名律师,致力于在 Encode AI 组织中推动与人工智能相关的政策。 他在社交媒体平台 X 上披露,这一事件发生在他和妻子正准备晚餐的时候,警长助理敲门并向他递交了 OpenAI 的传票。
10/12/2025 9:23:53 AM
AI在线
OpenAI与苏尔能源联手投资250亿美元!阿根廷将迎来超级数据中心!
近日,阿根廷政府宣布,OpenAI 与苏尔能源公司(Sur Energy)达成了一项重磅协议,计划在阿根廷投资高达 250 亿美元,共同推进一座大型数据中心项目。 这一项目将成为阿根廷历史上规模最大的科技与能源基础设施之一,为未来的人工智能应用提供强大算力支持。 根据协议,这座数据中心的算力容量预计将达到 500 兆瓦,主要用于处理先进的人工智能计算工作负载。
10/12/2025 9:23:53 AM
AI在线
OpenAI Sora 引爆 App Store“山寨潮”:30万次下载!苹果审核机制遭质疑
OpenAI 推出仅限邀请的 Sora 视频生成移动应用后,苹果 App Store 随即被大量假冒应用攻陷,这些应用盗用“Sora”甚至抢先使用“Sora2”的名称,成功绕过苹果的审核机制并公然上架。 假冒应用泛滥:安装量达30万次,牟利16万美元根据应用情报平台 Appfigures 为 TechCrunch 提供的研究,官方 Sora 应用发布后,App Store 迅速出现了十多款带有“Sora”品牌标识的应用,其中超过一半甚至直接命名为“Sora2”。 值得注意的是,这些冒名顶替应用(包括 Google Play 上的)并非都是新品,有些早在去年或今年初就已存在,但都在 Sora 官方应用发布后迅速更新并更改名称,以利用激增的搜索需求。
10/12/2025 9:23:53 AM
AI在线
两部门联合发布《政务领域人工智能大模型部署应用指引》 大力推动AI技术应用
近日,中央网信办与国家发展改革委联合发布了《政务领域人工智能大模型部署应用指引》,这是一份针对政府部门如何安全、稳妥推进人工智能技术应用的指导文件。 其目的是为各级政务部门提供清晰的方向和基本的参考,确保人工智能的有效利用。 在这份指引中,特别强调了政务部门可以围绕政务服务、社会治理、机关办公及辅助决策等多个高频需求,结合地方实际,选择典型场景进行 AI 大模型的应用探索。
10/12/2025 9:23:43 AM
AI在线
好莱坞怒斥OpenAI:新应用Sora会对艺人构成威胁
近日,OpenAI 推出的全新 AI 视频生成应用 Sora 在短短一周内便突破了 100 万次下载,然而这一成就却引来了好莱坞多家顶级经纪公司的强烈不满。 这些公司认为,Sora 的使用模式对艺人及其知识产权构成了 “严重威胁”,可能引发行业的广泛争议。 Sora 允许用户生成包含知名品牌和角色的 AI 视频,而 OpenAI 最初的 “默认使用、可选择退出” 策略意味着,除非工作室或经纪公司主动要求,否则受版权保护的素材可能被随意使用。
10/12/2025 9:22:42 AM
AI在线
拆解了50+AI产品,总结了这份AI界面设计全景指南
最近总接到AI 0-1的需求,开始我以为不就一个对话框嘛,有啥难的,但是做多了,才发现不同产品对AI设计风格,布局方式,交互方式都有所不同。 这篇文章我拆了50 的c端和b端的AI产品,争取帮你把「AI界面设计风格」这件事彻底讲明白。 看完这篇,你就能立刻判断:不同场景到底该怎么选风格、怎么落地。
10/12/2025 12:11:38 AM
风筝KK
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器
当大语言模型生成海量数据时,数据存储的难题也随之而来。 对此,华盛顿大学(UW)SyFI实验室的研究者们提出了一个创新的解决方案:LLMc,即利用大型语言模型自身进行无损文本压缩的引擎。 基准测试结果表明,无论是在维基百科、小说文本还是科学摘要等多种数据集上,LLMc的压缩率都优于传统的压缩工具(如ZIP和LZMA)。
10/11/2025 6:05:23 PM
风波再起,OpenAI被指通过警方向AI监管倡导者施压,马斯克锐评其「建立在谎言之上」
最新消息,一名因倡导制定 AI 监管法案的参与者收到了 OpenAI 送来的传票,并被警察上门施压,引起了网友热烈讨论。 事情是这样的。 几个小时前,一位名为 Nathan Calvin 的 X 网友发推文称,「一个周二晚上,我和妻子正准备吃晚饭,一位副警长敲门,递给了我一张 OpenAI 的传票」。
10/11/2025 4:31:00 PM
机器之心
Anthropic 最新研究:仅需250份恶意文档,大模型即可被攻陷,无关参数规模
2025年10月8日,英国AI安全研究院、Anthropic、艾伦·图灵研究所与牛津大学OATML实验室等机构联合发布的一项研究,打破了业界关于“大模型越大越安全”的核心假设。 这项研究题为《Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples》,论文发表于arXiv。 研究团队发现,只需约250个恶意文档,就足以在任意规模的大语言模型(LLM)中植入可触发的后门(Backdoor)。
10/11/2025 3:18:35 PM
熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱
编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 先坦白一件事:AI Agent 不是魔法。 它们脆弱、多变,更像是喝了咖啡的实习生,而不是能独立完成任务的员工。
10/11/2025 2:04:09 PM
云昭
刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈
过去一年,OpenAI在算力上斥资70亿美元。 其中,大模型研发占了最大头——50亿美元,而推理计算仅用了20亿美元。 图片可见,LLM训练正吞噬无尽的算力,这也是OpenAI最近一直在大举扩展超算建设与合作的重要原因。
10/11/2025 10:34:49 AM
新智元
蚂蚁新发万亿开源旗舰大模型,究竟有多强?
国产大模型最近真是百花齐放啊,卷到家了。 这不,蚂蚁最近也发布了他的万亿级开源大模型 Ling 1T,把大模型的数量级又拉升到了新的高度。 那这个大模型到底好不好用呢?
10/11/2025 10:04:00 AM
磊哥
别再给大模型打鸡血,先救救被“智能体”三个字忽悠的预算
“兄弟,我们老板昨天看完路演,拍桌子要上Agent,说三个月让客服成本归零。 ”“归零? 他以为Agent是灭霸,打个响指预算就蒸发?
10/11/2025 9:40:11 AM
大数据AI智能圈
RLPT:用强化学习“重读”预训练数据,让大模型学会思考
大家好,我是肆〇柒。 今天要和大家分享的是一项来自腾讯大模型部门(LLM Department, Tencent) 与香港中文大学合作的前沿研究——RLPT(Reinforcement Learning on Pre-Training Data)。 面对高质量数据增长见顶、计算资源持续膨胀的矛盾,这项工作提出了一种全新的训练范式:让大模型在原始预训练数据上通过强化学习自主探索推理路径,从而突破传统监督学习的泛化瓶颈。
10/11/2025 9:23:28 AM
肆零柒