AIGC宇宙 AIGC宇宙

大模型

IBM Granite 3.0模型:为大规模企业AI应用指明方向

IBM在企业AI领域做出了一系列颇为独特的探索。 蓝色巨人目前正在推动全栈技术布局,以自2020年来兴起的AI和混合云作为企业战略领域的两大基础性支柱,同时借鉴了自身在其产品组合中积累下的优势。 更重要的是,这套方案扭转了主要以AI概念验证为目标的总体趋势,转而专注于解决高度具体的业务用例,且执行效率更高。
11/6/2024 3:34:51 PM

大模型重构生命科学!最大基础模型面世,解锁DNA超长序列,参数规模达2100亿

生命科学领域,已经率先进入到基础模型时代! 今年,化学诺贝尔奖授予了AlphaFold,AI Science受到空前的关注。 人们惊叹于,仅仅是一个蛋白质结构预测模型,就能释放出如此巨大的行业潜力。
11/6/2024 2:58:05 PM
量子位

轻松搭建AI版“谁是卧底”游戏,muAgent框架让知识图谱秒变编排引擎,支持复杂推理+在线协同

全新Agent框架,将知识图谱从知识获取来源直接升级为Agent编排引擎。 蚂蚁集团推出muAgent,兼容现有市面各类Agent框架,同时可实现复杂推理、在线协同、人工交互、知识即用四大核心差异技术功能。 这套框架目前在蚂蚁集团内多个复杂DevOps场景落地验证,同时可通过快速搭建的创新AI文本游戏“谁是卧底”游戏快速感受一下。
11/6/2024 2:46:10 PM

从谷歌、微软、百度,到Perplexity、Kimi、秘塔,大模型真的“搭”上了搜索的快车吗?

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)回到一年前, Perplexity 可能没想到自己押宝的这条赛道如今挤满了人。 毕竟,直到今年 4 月,这家 AI 搜索的领头羊才刚刚迈入 10 亿美元俱乐部。 然而就在上周,谷歌和 OpenAI 前后脚发布了新的 AI 搜索功能,大有打擂台的硝烟味。
11/5/2024 6:58:05 PM
伊风

谷歌内部项目:大模型 AI 智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
11/4/2024 3:54:16 PM
机器之心

英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品

人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。
11/4/2024 3:30:00 PM
量子位

创新能力超越AI Scientist,上海AI Lab「AI 科研团队」VirSci来了

编辑 | ScienceAI由上海人工智能实验室提出的 VirSci(Virtual Scientists)系统是一个基于大语言模型(LLM)的多智能体协作平台,专注于模拟科学家团队的合作过程,从而加速科研创新。 不同于以往的单智能体系统,VirSci 通过使用真实科学家的数据来模拟科学团队的多人协作,不仅可以通过团队成员的合作讨论来生成更具创新性和影响力的科研想法,还展现出作为「科学学」(Scienceof Science)研究工具的巨大潜力。 该研究以「Two Heads Are Better Than One: A Multi-Agent System Has the Potential to Improve Scientific Idea Generation」为题,于 2024 年 10 月 12 日发布在 arXiv  预印平台。
11/4/2024 2:22:00 PM
ScienceAI

UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪

又一个看似坚固无比的数学理论,被证伪了! 最近,UCLA和MIT的研究者证伪了概率论中众所周知的假设——「上下铺猜想」。 上下铺猜想(Bunkbed Conjecture)也称为双层床猜想,是渗透理论中的一个陈述,该领域处理的是在图的边随机删除后存在的路径和簇。
11/4/2024 2:20:00 PM
新智元

提升 1.5~20 倍吞吐量,字节豆包大模型团队与香港大学发布并开源全新 RLHF 框架

字节跳动豆包大模型团队与香港大学公开联合研究成果 —— HybridFlow。 官方宣称,HybridFlow(开源项目名:veRL)是一个灵活且高效的大模型 RL 训练框架,兼容多种训练和推理框架,支持灵活的模型部署和多种 RL 算法实现。 该框架采用混合编程模型,融合单控制器(Single-Controller)的灵活性和多控制器(Multi-Controller)的高效性,可更好实现和执行多种 RL 算法,显著提升训练吞吐量,降低开发和维护复杂度。
11/3/2024 3:24:59 PM
沛霖(实习)

LLM 比之前预想的更像人类,竟也能「三省吾身」

子曾经曰过:「见贤思齐焉,见不贤而内自省也。 」自省可以帮助我们更好地认识自身和反思世界,对 AI 来说也同样如此吗? 近日,一个多机构联合团队证实了这一点。
11/3/2024 1:21:00 PM
机器之心

支持中英双语及 40 种方言任意混说,中国电信 TeleAI 星辰语音大模型升级

中国电信人工智能研究院(TeleAI)在今年 5 月发布业内首个支持 30 种方言自由混说的语音识别大模型 —— 星辰超多方言语音识别大模型。 时隔不到半年,TeleAI 星辰语音大模型的多方言能力再次升级,攻克了湛江话、宜宾话、洛阳话、烟台话等方言,将方言种类从 30 种提升至 40 种,并引入对英文的识别。 与传统的有标注训练方法相比,TeleAI 通过预训练语音识别模型,利用海量无标注数据进行预训练,再通过少量有标注数据进行微调。
11/3/2024 9:37:53 AM
沛霖(实习)

豆包大模型团队开源RLHF框架,训练吞吐量最高提升20倍

强化学习(RL)对大模型复杂推理能力提升有关键作用,但其复杂的计算流程对训练和部署也带来了巨大挑战。 近日,字节跳动豆包大模型团队与香港大学联合提出 HybridFlow。 这是一个灵活高效的 RL/RLHF 框架,可显著提升训练吞吐量,降低开发和维护复杂度。
11/1/2024 2:44:00 PM
新闻助手

独家丨字节招兵买马,拟在欧洲设立AI研发中心

知情人士透露,字节跳动目前已经开始寻找欧洲的 LLM 和 AI 方面技术大牛,积极招揽人才。 而纵观欧洲各国的 AI 技术水平,瑞士、英国和法国相对靠前。 其中,瑞士和英国都有不少知名院校。
10/31/2024 2:57:00 PM
晓楠

谷歌:Gemini API 用量 6 个月飙升 14 倍,明年将升级 AI 助手

科技媒体 The Decoder 昨日(10 月 30 日)发布博文,报道称谷歌首席执行官桑达尔・皮查伊(Sundar Pichai)在最新季度财报电话会议上,宣布 Gemini API 用量在过去 6 个月内飙升了 14 倍。 皮查伊表示谷歌已经在 Google Maps、Google Search 等核心业务中整合 Gemini,目前已初步覆盖 20 亿用户,此外独立 Gemini 应用和嵌入的 Android Assistant 也见证了强劲的用户增长。 谷歌的云计算部门已经开始受益于人工智能的繁荣,收入增长了 35%,达到 114 亿美元,这包括人工智能和第三方服务,该部门的营业收入从去年的 2.7 亿美元增长到了 19.5 亿美元。
10/31/2024 2:49:52 PM
故渊

95 后创业者 VAST 宋亚宸:要做3D「抖音」内容平台

2022 年 9 月接近尾声的一天,Google 发布了文生 3D 技术DreamFusion,利用预训练的 2D 文本到图像扩散模型,提出SDS(score distillation scapling)方法,首次完成开放域文本到 3D的合成。 听到这个消息时,宋亚宸非常激动,他在商汤时就很关注 3D 生成技术。 DreamFusion的发布对于整个3D领域是一个大的转折点,意味着 3D内容制作的成本和门槛趋近于零,虽然生成的 3D模型效果很差,但已经是一个大的技术变革。
10/31/2024 11:26:00 AM
张进

实时音视频领域拓荒者的十年

2015 年,声网将WebRTC大会引入中国,筹办了第一届面向国内开发者、业务人员和用户的RTC(实时视音频)大会。 在大会开始的前夕,现任声网市场VP、RTC大会主策人彭小欢失眠了,她非常担心明天会不会有人来。 一晃十年过去了,当年的RTC大会早已升级为RTE(实时互联网)大会, 10 月 25 日RTE 2024也如期而至,但早已不用担心是否有人光顾,现场可谓是座无虚席。
10/31/2024 10:31:00 AM
张进

Meta 推出 Llama 3.2 1B / 3B 模型量化版:功耗更低、可适用更多轻量移动设备

继今年 9 月开源 Llama 3.2 的 1B 与 3B 模型之后,Meta 于 10 月 24 日发布了这两个模型的量化版本,量化后的模型大小平均减少了 56%,RAM 使用量平均减少了 41%,模型速度提高了 2 至 4 倍,同时降低了功耗,使这些模型能够部署到更多移动设备上。 AI在线注:模型量化(Model Quantization)就是通过各种训练方式将浮点模型转为定点模型,可以压缩模型参数,降低模型的复杂性,以便于在更轻量的平台运行。 Meta 表示,他们采用了量化感知训练(Quantization-Aware Training,QAT)和后训练量化(SpinQuant)两种方法对模型进行量化,其中“量化感知训练”更重视模型的准确性,而“后训练量化”更强调模型的可移植性。
10/27/2024 1:53:56 PM
漾仔

可令 AI 助理同时进行快 / 慢速思考,谷歌 DeepMind 公布具备两种思维模式的 Talker-Reasoner 框架

谷歌 DeepMind 上周公布了一个号称“具备两种思维模式”的 Talker-Reasoner 框架,旨在让 AI 助理能够同时进行快速和慢速思考,目前相关论文已发布于 ArXiv 上(点此访问)。 据介绍,这款框架采用“双系统”设计,能够在与用户进行对话的同时并行多步骤推理任务(一边快速回答用户问题,一边高速思考),其中系统 1 Talker LLM 主要负责快速、直觉和合成的语言回应,用于与用户交谈。 而系统 2 Reasoner LLM 则负责解决复杂问题,涉及从外界获取信息以增强知识,例如调用工具或从外部数据库检索信息,从而提升系统 1 回应内容的准确度及逻辑性。
10/27/2024 10:20:36 AM
漾仔