AIGC宇宙 AIGC宇宙

大模型

23亿参数,Transformer架构,NASA、IBM发布「天气+气候」通用AI模型Prithvi WxC

编辑 | KX9 月 23 日,IBM 与 NASA 合作发布了一个用于天气和气候的新型通用 AI 模型 Prithvi WxC,该模型可以在台式计算机上运行,且开源。Prithvi WxC 具有 23 亿参数,使用 MERRA-2 数据集的 160 个变量开发而成。Prithvi WxC 采用创新的 Transformer 架构。研究人员在一系列具有挑战性的下游任务上测试了该模型,即:自回归滚动预测、降尺度、重力波通量参数化和极端事件估计。由于其独特的设计和训练机制,Prithvi WxC 可以解决比现有天气 A
9/24/2024 2:35:00 PM
ScienceAI

微软亚洲研究院与上海市精神卫生中心展开联合研究,借助多模态大模型为认知障碍患者带来全新训练方法

据微软亚洲研究院官方披露,该研究院与上海市精神卫生中心携手展开联合研究,基于微软 Azure OpenAI 服务中的多模态大模型,开发了利用多种模态数据(如语音、文字、图片、音乐等信息)的个性化认知训练框架,为认知障碍患者的认知训练带来了新的可能。▲ 图源微软亚洲研究院公众号AI在线从微软亚洲研究院获悉,综合上海市精神卫生中心专家的建议与患者的需求,微软亚洲研究院的研究员们从易用性、界面友好性、功能专业性和入门难易度等多个维度出发,开发了个性化认知训练框架“忆我”(ReMe)。该工具以微软 Azure OpenAI
9/22/2024 1:31:19 PM
浩渺

原子、分子、复合物级性质预测均最佳,清华分子预训练框架登Nature子刊

编辑 | KXAI 已广泛用于药物发现和材料设计中的分子筛选。当前的自监督分子预训练方法往往忽略了分子的基本化学特性和物理原理。为了解决这个问题,来自清华大学的研究人员提出了一种称为分数去噪(Fractional denoising,Frad)的分子预训练框架,以学习有效的分子表示。通过这种方式,噪声变得可自定义,允许纳入化学先验,从而大大改善分子分布建模。实验表明,Frad 始终优于现有方法,在力预测、量子化学特性和结合亲和力任务中,取得最先进的结果。改进的噪声设计提高了力准确性和采样覆盖范围,这有助于创建物理一
9/20/2024 12:08:00 PM
ScienceAI

门板上做研究的首席科学家:Jeff Dean解密谷歌和Gemini背后的故事

“最开始我就知道谷歌相当有希望,谷歌能发展到现在的规模不过是水到渠成。 ”这位谷歌首席科学家在谷歌度过了近乎一半的人生,对谷歌的喜爱不减反增,到现在还依然坚守着谷歌最初的愿景并为此奋斗:组织全球信息并使其普遍可用和有用Jeff Dean 还记得刚加入谷歌的时候,每到周二的流量高峰期就开始担心系统会不会崩溃,还好后来及时增加了设备,对代码和搜索功能做了更多优化,谷歌搜索这才步入了正轨。 后来吴恩达在谷歌担任顾问,Jeff Dean 和他商定了大型神经网络的研究目标,最终促成了 Google Brain 团队的成立。
9/19/2024 10:38:00 AM
刘洁

新型蛋白质大语言模型即将登陆Google Cloud

编辑 | KX9 月 17 日,领先的细胞编程和生物安全平台 Ginkgo Bioworks 公司宣布了两项新产品,将助力制药和生物技术公司更容易开发新药,这是在去年与 Google Cloud 宣布的合作伙伴关系的基础上推出的。与 Google Cloud 合作构建的蛋白质大型语言模型 (LLM),是业内首创之一,它将使个人研究人员和企业公司能够利用 Ginkgo 私人数据的见解开发药物。其次,Ginkgo 正在推出其模型 API,这是一种强大的工具,旨在将生物 AI 模型直接带给机器学习科学家。该 API 现已
9/18/2024 4:38:00 PM
ScienceAI

大语言模型如何助力药物开发? 哈佛团队最新综述

作者 | 莫纳什大学郑伊圳编辑 | ScienceAI大语言模型因其展现出类人般的推理、工具使用和问题解决能力而备受瞩目,此外,它在化学、生物学等专业领域也展现出深厚的理解能力,进一步提升了其应用价值。近日,哈佛大学、莫纳什大学和格里菲斯大学(Griffith University)组成的研究团队,发表最新综述《Large Language Models in Drug Discovery and Development: From Disease Mechanisms to Clinical Trials》。论文
9/18/2024 4:37:00 PM
ScienceAI

易用性对齐 vLLM,推理效率提升超200%,这款国产加速框架什么来头?

一、行业背景2022 年 10 月,ChatGPT 的问世引爆了以大语言模型为代表的的 AI 浪潮,全球科技企业纷纷加入大语言模型的军备竞赛,大语言模型的数量、参数规模及计算需求呈指数级提升。大语言模型(Large Language Model,简称 LLM 大模型)指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大模型通常包含百亿至万亿个参数,训练时需要处理数万亿个 Token,这对显卡等算力提出了极高的要求,也带来了能源消耗的激增。据斯坦福人工智能研究所发布的《2023 年 AI
9/18/2024 10:37:00 AM
新闻助手

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

前些天,OpenAI 发布了 ο1 系列模型,它那「超越博士水平的」强大推理性能预示着其必将在人们的生产生活中大有作为。但它的使用成本也很高,以至于 OpenAI 不得不限制每位用户的使用量:每位用户每周仅能给 o1-preview 发送 30 条消息,给 o1-mini 发送 50 条消息。实在是少!为了降低 LLM 的使用成本,研究者们已经想出了各式各样的方法。有些方法的目标是提升模型的效率,比如对模型进行量化或蒸馏,但这种方法往往也伴随着模型性能的下降。另一种思路则是提升运行这些模型的硬件——英伟达正是这一路
9/17/2024 1:59:00 PM
机器之心

「LLM」这个名字不好,Karpathy认为不准确、马斯克怒批太愚蠢

在 AI 领域,几乎每个人都在谈论大型语言模型,其英文全称为 Large Language Models,简写为 LLM。因为 LLM 中有「Language」一词,因此,大家默认这种技术和语言密切相关。然而,知名 AI 大牛 Andrej Karpathy 却对此有着独特的见解:「大型语言模型(LLM)名字虽然带有语言二字,但它们其实与语言关系不大,这只是历史问题,更确切的名字应该是自回归 Transformer 或者其他。LLM 更多是一种统计建模的通用技术,它们主要通过自回归 Transformer 来模拟
9/15/2024 1:45:00 PM
机器之心

训大模型为啥这么贵?专家:一半以上算力被浪费了

人工智能时代,大模型的发展带来了智能算力需求的大爆发。据估算,自 2012 年以来,AI 模型训练算力需求每 3~4 个月就翻一番,每年训练 AI 模型所需算力增长幅度高达 10 倍。同时,OpenAI 曾在 2020 年提出 Scaling law 定律。该定律指出,大模型的最终性能与计算量、模型参数量及训练数据量的大小密切相关。换言之,若要提升大模型的能力,就需要不断增加模型参数和训练数据量,这就需要部署大规模的训练集群,随着集群规模的不断扩大,训练成本也呈指数级增长。9月13日,在百度智能云举办的媒体技术沙龙
9/13/2024 6:55:00 PM
新闻助手

GPT未竟的革命,由o1接棒:或是LLM研究最重要的发现

天下武功唯快不破,但 OpenAI 不走寻常路,新出的 o1 系列宣告天下:我们更慢,但更强了。 o1 要花更多的时间思考问题,再做出反应,但在复杂推理层面直接窜了几个档位。 在国际数学奥林匹克 (IMO) 资格考试中,GPT-4o 仅正确解决了 13% 的问题,而 o1 得分为 83%。
9/13/2024 3:50:00 PM
刘洁

元象发布中国最大MoE开源大模型 落地应用登顶港台榜

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B,加速AI应用低成本部署,将国产开源提升至国际领先水平。 该模型总参数255B,激活参数36B,达到100B模型性能的「跨级」跃升,同时训练时间减少30%,推理性能提升100%,使每token成本大幅下降。 元象「高性能全家桶」系列全部开源,无条件免费商用,让海量中小企业、研究者和开发者能按需选择。
9/13/2024 11:58:00 AM
朱可轩

安卓版谷歌 Gemini Live 免费上线,开启在线 AI 语音畅聊

科技媒体 9to5Google 昨日(9 月 12 日)发布博文,报道谷歌在 1 个月前面向 Advanced 订阅用户推出后,正逐步面向所有安卓用户免费开放 Gemini Live。AI在线曾于 8 月报道,谷歌在 Pixel 9 系列手机发布会上,发布了 Gemini Live,该服务提供了一种移动对话体验,让用户和 Gemini 展开自由流畅的对话。Gemini Live 可以说是对标 OpenAI ChatGPT 最新上线的 Advanced Voice 模式(限量 Alpha 测试),采用了增强型语音引擎
9/13/2024 8:33:38 AM
故渊

安卓和 iOS 版谷歌 Gemini AI 应用新增 Gems 及管理器

科技媒体 testingcatalog 昨日(9 月 12 日)发布博文,报道称 iOS 和安卓版 Gemini 应用新增支持 Gem 和 Gem 管理器。用户现可在主屏幕上查看常规聊天及与 Gems 相关的聊天,此外用户可进入 Gem 管理器,界面采用标签式布局,首屏展示所有 Gems,分为用户自定义 Gems 和谷歌预制的 Gems 两部分。用户如果要编辑或创建新 Gems,用户会被引导打开网页版,该网页版会在同一应用内的网页视图中打开。Gemini 简介AI在线附上官方介绍如下:Gemini 应用是一款实验性
9/13/2024 7:24:34 AM
故渊

端侧ChatGPT时刻!这家清华系大模型公司赶在OpenAI、苹果之前

下周苹果即将召开发布会了! 但最令笔者期待的不是 iphone16,而是苹果今年提出的 Apple Intelligence 的进展,这是苹果今年进军端侧 AI 的一大杀手锏。 其实早在今年年初,国内就有一家当时还名不见经传的大模型公司率先喊出 “端侧AI是未来大趋势”的口号,当时还没有太多玩家意识到端侧AI的重要性。
9/9/2024 3:54:00 PM
我在思考中

全球最大商业图库 Getty Images 推出免费高画质照片 AI 训练集:含 3750 张照片、分 15 项类别

以提供新闻、体育和娱乐照片授权闻名的全球最大的商业图库 Getty Images 上周宣布推出高画质照片样本训练数据集,供开发者开发和训练 AI 模型使用。AI在线获悉,该样本数据集包含 3,750 张照片,分为商业、教育、医疗健康、运动与健身、物品与物体、插图、图标等 15 个类别。数据集提供多种主题的高质量视觉内容,可用于训练机器学习和 AI 模型,开发多种应用场景。▲ 相关图片选集目前,这一数据集已在 Hugging Face 上线(点此访问),不过用户需同意服务条款并提供联系方式,才能免费访问该数据集。Ge
9/9/2024 2:03:16 PM
漾仔

谷歌升级 Gemini 1.5 Flash 模型,AI 聊天响应速度最高提 50%

谷歌公司于今年推出 Gemini 1.5 Flash AI 模型,官方承诺提供更快的响应速度、能应对更复杂的用户查询。在最新版本更新中,谷歌宣布采用 Gemini 1.5 Flash 的 Gemini 大幅提升响应速度,增幅最高可以达到 50%。AI在线附上谷歌官方支持文档内容如下:Gemini 给出回答的速度大幅提升更新内容:过去几周以来,我们在改善延迟方面取得了重大进步,采用 1.5 Flash 模型的 Gemini 给出回答的速度现在大幅提升,升幅最高达 50%。更新原因:通过让 Gemini 快速给出回答,
9/4/2024 11:41:51 AM
故渊

Meta 公布 Llama AI 模型家族下载量数据:全球超 3.5 亿、3.1-405B 模型最受欢迎

Meta 公司昨日发布新闻稿披露了旗下 Llama 开源 AI 模型家族在 Hugging Face 的下载量情况,仅在上个月(8 月 1 日- 8 月 31 日),相关模型的下载次数就超过了 2000 万次,截至 9 月 1 日,Llama 模型家族全球下载量已突破 3.5 亿次。参考AI在线报道,Meta 公司在今年 4 月发布了 LLM Llama 3,于今年 7 月推出了 Llama 3.1,将上下文长度扩展至 128K,新增支持 8 种语言,并首次提供了 405B 参数版本,Meta 提到,目前“Llam
9/3/2024 9:50:06 PM
漾仔