大模型
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
字节跳动豆包大模型团队官宣开源一项针对 MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。
3/10/2025 5:42:41 PM
远洋
如何看待”首个真干活”AI—Manus?
话题背景今日凌晨,一款通用AI Agent产品「Manus」正式发布。 GAIA评分已超越OpenAI的DeepResearch,成为GAIA评分第一。 这一产品以“数字代理人”自居,宣称能独立完成复杂任务并交付完整成果,迅速成为科技圈的焦点。
3/10/2025 12:00:00 PM
腾讯技术工程
2025年AI投资热潮延续:九家美国公司获超亿美元融资
2024年是人工智能行业具有里程碑意义的一年,据TechCrunch统计,去年有49家初创公司获得了价值1亿美元或以上的融资,其中七家公司筹集了10亿美元以上资金,三家公司甚至获得了多轮"巨额融资"。 而2025年开年以来,这一势头不减。 尽管年初刚过,融资额超过1亿美元的美国AI公司数量已接近两位数,且已有一轮融资突破10亿美元大。
3/10/2025 10:00:43 AM
AI在线
超越 Mistral 和 Qwen:谷歌 Gemini Embedding 登顶 MTEB,问鼎最强文本嵌入 AI 模型
Gemini Embedding的发布标志着谷歌在AI文本处理领域的又一次突破。其卓越的性能和广泛的应用潜力,不仅为谷歌搜索和云服务提供了强大支持,也为企业用户带来了更多可能性。
3/10/2025 9:30:27 AM
故渊
大模型本地部署的“隐形炸弹”,你的数据安全吗?
作者 | 朱雀实验室随着DeepSeek R1等开源大模型的火爆,越来越多的开发者、企业甚至开始尝试在本地部署大语言模型,享受AI带来的便利。 然而近期腾讯混元安全团队-朱雀实验室发现:这些广受欢迎的AI工具中有不少存在安全隐患。 如果使用不当,攻击者可能窃取用户数据、滥用算力资源,甚至控制用户设备。
3/10/2025 9:10:00 AM
腾讯技术工程
Ollama的配置修改与接口调用
一、修改环境变量1.1 配置远程访问在我们本地部署好ollama之后,仅支持本机访问,我们可以通过修改环境变量让其他人可以远程访问。 在wins电脑上增加环境变量:复制1.2 配置本地模型路径1.2.1 本地模型默认路径wins本地模型默认路径:C:\Users\%username%\.ollama\models。 这里 %username% 是当前登录的用户名。
3/10/2025 9:00:00 AM
Python伊甸园
Ollama的介绍与测试
一、Ollama介绍Ollama是一个开源工具,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 它提供了一个简洁高效的界面,让用户能够轻松地创建、执行和管理这些复杂的模型。 此外,Ollama还配备了一个丰富的预构建模型库,使得这些模型能够无缝集成到各种应用程序之中,大大提升了开发效率和用户体验。
3/10/2025 8:30:00 AM
Python伊甸园
Phi-4-multimodal:图、文、音频统一的多模态大模型架构、训练方法、数据细节
Phi-4-Multimodal 是一种参数高效的多模态模型,通过 LoRA 适配器和模式特定路由器实现文本、视觉和语音/音频的无缝集成。 训练过程包括多阶段优化,确保在不同模式和任务上的性能,数据来源多样,覆盖高质量合成数据。 它的设计体现了小型语言模型在多模态任务上的潜力。
3/10/2025 2:00:00 AM
余俊晖
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!
研究团队构成:香港科技大学、中国科学院软件研究所、西安电子科技大学和重庆大学。 团队核心成员:香港科技大学的研究助理教授曹嘉伦,主要研究领域包括 AI&SE、人工智能测试、形式化验证等;中国科学院软件研究所副研究员陆垚杰,主要研究领域包括大语言模型及其应用。 随着 DeepSeek-R1 的流行与 AI4Math 研究的深入,大模型在辅助形式化证明写作方面的需求日益增长。
3/8/2025 3:46:00 PM
机器之心
阿里通义千问推理大模型QwQ-32B勇夺全球开源社区榜榜首
在全球最大的 AI 开源社区 HuggingFace 的最新更新中,阿里巴巴近期推出的通义千问推理模型 QwQ-32B 成功夺得了大模型榜单的第一名。 这一模型在刚发布后便引起了广泛关注,超越了诸如微软的 Phi-4和 DeepSeek-R1等知名模型,展现出了强大的性能。 QwQ-32B 模型在数学、代码处理及通用能力等多个方面都取得了质的飞跃,特别是其参数数量较小的特点,使得其整体性能能够与 DeepSeek-R1相媲美。
3/7/2025 1:58:00 PM
AI在线
FP8 训练新范式:减少 40% 显存占用,训练速度提高 1.4 倍
近期DeepSeek V3 引爆国内外的社交媒体,他们在训练中成功应用了 FP8 精度,显著降低了 GPU 内存使用和计算开销。 这表明,FP8 量化技术在优化大型模型训练方面正发挥着越来越重要的作用。 近期,来自伯克利,英伟达,MIT 和清华的研究者们提出了显存高效的 FP8 训练方法:COAT(Compressing Optimizer states and Activation for Memory-Efficient FP8 Training),致力于通过 FP8 量化来压缩优化器状态和激活值,从而提高内存利用率和训练速度。
3/7/2025 10:02:10 AM
机器之心
Gemini或将新增功能Image to Code 应用亮相AI Studio
2025 年 3 月 6 日消息,根据X平台用户最新爆料,一款名为“Image to Code”的隐藏初创应用悄然出现在AI Studio中。 这款应用由Gemini技术驱动,能够以图像作为输入,通过分析和推理,最终生成相应的程序代码,绘制出程序化的图像。 这一消息迅速引发了科技爱好者和开发者的广泛关注。
3/6/2025 10:12:00 AM
AI在线
基于BLIP-2和Gemini开发多模态搜索引擎代理
译者 | 朱先忠审校 | 重楼本文将利用基于文本和图像的联合搜索功能来开发一个多模态时装辅助代理应用程序。 简介传统模型只能处理单一类型的数据,例如文本、图像或表格数据。 多模态是人工智能研究界的一个流行概念,指的是模型能够同时从多种类型的数据中学习。
3/6/2025 8:50:44 AM
朱先忠
大模型系列:DeepSeek大模型与应用场景介绍
今天给大家聊聊DeepSeek 究竟有哪些强大的模型? 这些模型又适用于哪些具体的场景呢? 希望对大家了解 DeepSeek 大模型提供一些参考。
3/6/2025 7:28:31 AM
郝光明
为什么 Qwen 能自我改进推理,Llama 却不行?斯坦福找到了原理
给到额外的计算资源和「思考」时间,为什么有的模型能好好利用,把性能提升一大截,而有的模型就不行? 当遇到困难问题时,人类会花时间深入思考以找到解决方案。 在 AI 领域,最近的一些大语言模型在通过强化学习进行自我改进训练时,也已经开始表现出类似的推理行为。
3/6/2025 6:00:00 AM
机器之心
为什么Qwen能自我改进推理,Llama却不行?斯坦福找到了原理
虽然 Qwen「天生」就会检查自己的答案并修正错误。 但找到原理之后,我们也能让 Llama 学会自我改进。 给到额外的计算资源和「思考」时间,为什么有的模型能好好利用,把性能提升一大截,而有的模型就不行?
3/5/2025 2:54:00 PM
机器之心
硅基流动:下线部分未备案模型,用户请注意迁移
近日,硅基流动在其更新公告中宣布,为了进一步优化资源配置,提供更先进、优质、合规的技术服务,将于2025年3月6日对部分模型进行下线处理。 此次下线的模型主要为未经审查的国外模型,特别是生图模型,仅保留KColor。 请用户注意,如果之前接入了公告中提及的模型,务必在3月6日前完成迁移。
3/5/2025 10:00:25 AM
AI在线
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
开源
用户
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
预测
人形机器人
百度
苹果
伟达
Transformer
深度学习
xAI
模态
字节跳动
Claude
大语言模型
搜索
具身智能
驾驶
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
干货合集
训练
应用
大型语言模型
科技
亚马逊
DeepMind
特斯拉
智能体