AIGC宇宙 AIGC宇宙

RAG

无需联网!DeepSeek-R1+本地化RAG,打造私有智能文档助手

1、写在前面官方开源的版本除了满血的 671b 外,还有 1.5b,7b,8b,14b,32b,70b 六个蒸馏后的尺寸,笔者使用 Ollama 在电脑本地部署了 7b 的模型,在终端中测试了虽然回答没有满血版的那么惊艳,但凑活能用。 作为一款高阶模型开源,确实要 salute 一下。 不过进一步的问题是,我们面对这样的强思维链模型,除了在官网间或 Chat 一下,如何进一步的将其变成工作或生活场景的生产力工具?
2/21/2025 3:56:42 PM
韦东东

DeepSeek开源模型重塑法证审计,个人本地做RAG+微调,25年多试试

全球82亿人口,网民55.6亿,而ChatGPT坐拥3.5亿全球月活,渗透率算下来也有6%左右了。 但这还是DeepSeek-R1开源之前的故事。 1/20 开源以来,DeepSeek-R1属实又硬拉高了一大波全球 AI的渗透率,或者换句话说,是解锁了更多的应用场景。
2/21/2025 2:37:21 PM
韦东东

“RAG界的DeepSeek”开源-企业复杂私域知识理解与推理框架PIKE-RAG

PIKE-RAG框架的设计目标是提供一个灵活且可扩展的RAG系统,应对工业应用中复杂多样的任务需求。 框架的核心是通过有效的知识提取、理解和组织,以及构建连贯的推理逻辑,解决了RAG系统在工业应用中的局限性。 下面来看下PIKE-RAG框架及其实现过程,供参考。
2/17/2025 3:00:00 AM
余俊晖

使用 DeepSeek R1 和 Ollama 搭建一个 RAG 系统(包含完整代码)

你有没有想过,能不能像跟人聊天一样,直接问 PDF 文件或技术手册问题? 比如你有一本很厚的说明书,不想一页页翻,只想问它:“这个功能怎么用? ”或者“这个参数是什么意思?
2/10/2025 11:27:37 AM
wayn

基于阿里开源Qwen2.5-7B-Instruct模型进行多代理RAG开发实战

译者 | 朱先忠审校 | 重楼引言大型语言模型已经展现出令人印象深刻的能力,并且随着每一代新模型的发布,它们仍在稳步改进。 例如,聊天机器人和自动摘要器等应用程序可以直接利用LLM的语言能力,因为这些LLM只要求生成文本输出——这也是该类模型的自然设置。 此外,大型语言模型还表现出了理解和解决复杂任务的令人印象深刻的能力,但是只要它们的解决方案保持“纸上谈兵”,即纯文本形式,那么它们就需要外部人类用户代表它们行事并报告所提议操作的结果。
1/13/2025 10:55:53 AM
朱先忠

我们一起聊聊如何给AI大模型喂数据?

大家好呀,我是飞鱼。 如果我想要大模型学习我的知识,怎么给他数据呢? 数据是大模型的食物,只有喂对了,模型才能更好地学习和成长。
1/10/2025 8:06:39 AM
日常加油站

【RAG】浅看引入智能信息助理提升大模型处理复杂推理任务的潜力-AssisTRAG

AssisTRAG通过集成一个智能信息助手来提升LLMs处理复杂推理任务的能力。 该框架由两个主要组件构成:一个冻结的主语言模型和一个可训练的助手语言模型。 AssisTRAG与之前的RAG对比1.
11/26/2024 8:50:20 AM
余俊晖

没有思考过 Embedding,谈何 RAG,更不足以谈 AI大模型

今天,我们来聊聊 AI 大模型,有一个非常重要概念 "Embedding"。 你可能听说过它,也可能对它一知半解。 如果你没有深入了解过 Embedding,那你就无法真正掌握 RAG 技术,更不能掌握 AI 大模型精髓所在。
11/21/2024 3:44:21 PM
渔夫