AIGC宇宙 AIGC宇宙

大模型

打破GNN与语言模型间壁垒,图辅助多模态预训练框架用于催化剂筛选,登Nature子刊

编辑 | KX吸附能是一种反应性描述符,必须准确预测,才能有效地将机器学习应用于催化剂筛选。 该过程涉及在催化表面上的不同吸附构型中找到最低能量。 尽管图神经网络在计算催化剂系统的能量方面表现出色,但它们严重依赖原子空间坐标。
12/3/2024 2:42:00 PM
ScienceAI

3DGS自监督预训练全新范式!VisionPAD:三大感知任务全部暴力涨点(港中文&华为)

写在前面 && 笔者理解虽然近一年端到端的自动驾驶发展火热,但是以多视角图像推导BEV视角和占用空间的感知技术引领的自动驾驶框架,仍然在很多企业中占据主体。 比如今天要分享的这篇,就是华为诺亚方舟实验室对BEV OCC的继续研究。 但是不得不说,这些模型在很大程度上依赖于精确的3D标注,而数据标注的高成本使得越来越多的研究人员和工程师开始关注预训练策略。
12/3/2024 9:49:07 AM
黄哲威 hzwer

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署

Ollama—— 这是一个专为本地部署优化的 AI 模型。 Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。 这无疑是 AI 大模型的一次重大突破!
12/3/2024 9:11:45 AM
不码不疯魔

清华UCSD提出全新微调方法,8B小模型媲美GPT-4o!科学问题正确率提高28%

我们都知道,在科研界,LLM在解决简单科学问题时表现得游刃有余,但在应对复杂问题时往往会出现幻觉。 于是,为了让模型更靠谱,研究人员尝试给模型装上科学工具,帮助它们解决高难度任务。 然而,一旦用上工具,模型就「上瘾」了!
12/2/2024 2:20:00 PM
新智元

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

此项研究成果已被 NeurIPS 2024 录用。 该论文的第一作者是杜克大学电子计算机工程系的博士生张健一,其主要研究领域为生成式 AI 的概率建模与可信机器学习,导师为陈怡然教授。 大语言模型(LLM)在各种任务上展示了卓越的性能。
12/2/2024 1:50:00 PM
机器之心

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

11 月 22 日,Prime Intellect 宣布通过去中心化方式训练完成了一个 10B 模型。 30 号,他们开源了一切,包括基础模型、检查点、后训练模型、数据、PRIME 训练框架和技术报告。 据了解,这应该是有史以来首个以去中心化形式训练得到的 10B 大模型。
12/2/2024 12:47:08 PM
机器之心

图结构转文本序列,大模型直接读懂!图推理性能大涨

大语言模型直接理解复杂图结构的新方法来了:将图(Graph)转换为适合Transformer架构的线性token序列。 belike:这种最新图线性化方法,反映了自然语言中局部依赖性和全局对齐性两个关键属性,即:不仅需要保留基于前文上下文预测下一个token的能力(局部依赖性),而且不同图的token序列应该从具有相似特征的token开始或结束(全局对齐性),就像自然语言文本经常以特定词语开头或结尾。 如此一来,在海量文本数据上训练的LLM也能更好地理解图结构中的关系和属性,如节点计数、最大度数计算和图式形状分类等图推理任务都能完成。
12/2/2024 12:37:42 PM

微软:两个AI相互纠错,数学再涨5分

提升LLM数学能力的新方法来了——一个大模型不行,那就两个。 让他们彼此合作,纠正对方的错误。 这就是来自加州大学和微软研究院的最新研究成果:Flow-DPO。
12/2/2024 12:30:44 PM

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

在《星球大战》中,机器人R2-D2和其他机器人使用特殊的语言进行交流。 这种语言主要由蜂鸣声和口哨声组成,被称为「二进制语」(Binary)或「机器人语」(Droidspeak)。 Droidspeak是专门为机器人之间的交流设计的,只有机器人能够完全理解其精确含义。
12/2/2024 10:15:00 AM
新智元

揭秘:为何大模型总是赚不到钱?行业内幕大曝光!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)一个扎心的问题:大模型盈利了吗? 随着技术的发展,AI 逐渐走下了「神坛」,整个业界都变得更加客观和务实。 从OpenAI 今年高达 50 亿的天价亏损,到月暗沸沸扬扬的前投资人仲裁风波,大模型厂商的生意之路不是铺满大额融资的花路,而是充满了坎坷和荆棘。
12/2/2024 9:37:09 AM
伊风

将大语言模型集成到现有软件系统的完整指南

译者 | 布加迪审校 | 重楼随着最近应用迅速普及开来、人工智能(AI)得到广泛采用,大语言模型(LLM)已变得备受广大公司企业、开发人员和非开发人员的欢迎,因为它们为用户提供了诸多好处。 它们帮助开发人员调试代码并生成代码片段,还帮助澄清看似复杂的编程概念和任务,从而提高生产力。 只要用于训练的数据集涵盖主题,使用LLM的非开发人员就可以受益于对问题做出快速且定制的响应和答复。
12/2/2024 8:10:31 AM
布加迪

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。 (VLA:视觉-语言-动作模型,代表一类用于处理多模态输入的模型)简单来说,DeeR-VLA就像人的决策系统:简单任务快速思考,复杂任务仔细思考。
12/2/2024 7:10:00 AM

apk 文件显示,谷歌 Gemini 未来将支持代码文件夹 AI 分析功能

如果这一功能上线,用户将能够直接向 Gemini 上传代码文件夹。虽然 Gemini 已具备阅读单个代码文件并提供反馈的能力,但实际开发项目往往由多个代码文件组成。
11/30/2024 9:48:15 PM
清源

国家管网“管网”大模型正式上线应用,基于华为算力底座和技术栈

据华为官方消息,11 月 29 日,国家管网集团“管网”大模型正式上线应用。“管网”大模型基于华为算力底座和技术栈,打造“管网制度流程 + 数据 + IT + 大模型”体系,构建具有管网特色的大模型方案。
11/30/2024 5:57:28 PM
浩渺

关于 Meta Llama 3,你知道多少?

2024年,对于人工智能领域来说可谓意义非凡。 继 OpenAI 推出备受赞誉的 GPT-4o mini后,Meta 的 Llama 3.1 模型亦在 . 7月23日 惊艳亮相,再一次掀起了新一轮人工智能热潮。
11/29/2024 4:55:04 PM
架构驿站

重磅开源!Kimi把自家底层推理架构都开源了,开源贡献阵容相当豪华:清华、阿里、华为、AISoft、面壁智能

就在昨天,Kimi宣布要把自家底层的大模型推理架构Mooncake开源出来! 有媒体称该架构正是承载了月之暗面Kimi线上80%以上流量的正在用的底层架构。 小编立马求证了一番,的确Github上有提到:Mooncake 正在服务Kimi平台。
11/29/2024 1:54:13 PM

Kimi开源底层推理框架,1小时GitHub揽星1.2k

什么? Kimi底层推理架构刚刚宣布:开! 源!
11/29/2024 7:00:00 AM

OpenAI API:LLM编程的事实标准

当下,大模型领域已然步入 “百模大战” 时期,形形色色的大模型如雨后春笋般不断涌现。 那么,若我们打算学习大模型的 API,是否真的需要逐一去钻研呢? 答案无疑是否定的。
11/28/2024 4:45:50 PM
greencoatman