AIGC宇宙 AIGC宇宙

前端 x AI:从了解提示工程、RAG和微调开始

在AI工程应用中有三种应用范式,他们分别是提示工程(Prompt Engineering)、RAG(Retrieve Augmented Generation)、微调(Fine Tuning),那么在工程应用中我们该如何选择呢? 在具体介绍这三种范式之前,首先我们需要了解什么是大模型。 大模型通常指的是拥有大量参数和复杂结构的深度学习模型,它经过海量的多样化的数据预训练之后,具备了非常多的能力,包括编码、数学、金融、教育和法律等行业的能力。

前端 x AI:从了解提示工程、RAG和微调开始

在AI工程应用中有三种应用范式,他们分别是提示工程(Prompt Engineering)、RAG(Retrieve Augmented Generation)、微调(Fine Tuning),那么在工程应用中我们该如何选择呢?

在具体介绍这三种范式之前,首先我们需要了解什么是大模型。大模型通常指的是拥有大量参数和复杂结构的深度学习模型,它经过海量的多样化的数据预训练之后,具备了非常多的能力,包括编码、数学、金融、教育和法律等行业的能力。

因此,我们可以把大模型比作是一个人的大脑,假设这个人就是我,而且具备了各种能力。

现在假如你有一个问题想问我,但是我没有给出你想要的答案,所以接下来我们来剖析一下,为什么我没有给出你想要的答案?这里其实就会存在三种不同的情况,本质上就可以对应到提示工程、RAG、微调这三种范式,下面我来一一讲解。

1. 提示工程

第一种情况就是你可能没有问清楚,你没有让我明白你到底想要做什么?所以接下来就是你要把这个问题整理成一个让我能听得懂的,以更详细的一种方式传达给我,我才能给你想要的答案,那这个过程本质上对应的是提示工程。

前端 x AI:从了解提示工程、RAG和微调开始

指令不清晰🌰:

前端 x AI:从了解提示工程、RAG和微调开始

指令清晰🌰:

前端 x AI:从了解提示工程、RAG和微调开始

提示工程,作为一种先进的语言模型交互策略,旨在通过精心设计的输入提示来引导模型生成特定类型或风格的输出。这一过程的核心在于利用语言模型的理解和生成能力,通过调整提示的内容、结构和语境,来实现对输出结果的精细控制。

提示工程具有以下优点:

  • 灵活性与适应性提示工程允许用户在不需要重新训练模型的情况下,根据不同的任务需求调整提示内容,从而实现快速适应多种应用场景,无论是撰写风格化的文本、生成技术文档,还是进行创意写作。
  • 资源效率由于提示工程不依赖于模型的再训练,因此大大节省了计算资源和时间,特别是在处理大型语言模型时,这种方法的资源效率尤为显著。
  • 用户友好性对于非技术用户而言,提示工程提供了一种直观的交互方式,通过简单地调整提示文本,就能观察到模型输出的变化,降低了使用复杂AI工具的门槛。
  • 增强模型的可解释性通过分析不同提示下的模型输出,用户可以更好地理解模型的行为模式和决策逻辑,从而增加对模型决策过程的透明度。总之,提示工程是一种既高效又灵活的语言模型利用方式,它不仅拓宽了语言模型的应用范围,还提升了用户体验和资源利用效率,是当前自然语言处理领域的一个重要发展方向。

当然这种方法也有缺点:

  • 可重复性差找到最佳提示可能需要大量的尝试与错误,且效果可能不稳定。
  • 泛化能力有限特定的提示可能只在某些任务上有效,在其他任务上表现不佳。

在实际的prompt构造中,你可以根据具体的场景,按以下12种Prompt框架来构造prompt:

前端 x AI:从了解提示工程、RAG和微调开始

提示工程并不涉及直接修改模型的底层参数或结构,而是通过外部输入的调整来影响模型的响应。因此它是一种低成本、灵活性高的应用范式。

它适合如下场景:

  • 当你需要快速调整模型以适应新任务,而没有足够的时间或资源来进行大规模微调时;
  • 在创意写作、对话生成或其他生成任务中,当希望模型能够灵活地生成多样化的文本时;
  • 在不需要非常高的准确度或专业性的情况下,可以通过设计合适的提示来引导模型生成所需的文本。

2. RAG

当你把这个问题已经整理成一个让我能听得懂的方式传达给我了,但是我还是没有给你想要的答案,那有可能是我欠缺相关领域的知识,比如你问我前端如何在实际的业务场景落地AI,我对前端是比较熟悉的,但是我没有AI相关的背景知识,所以我需要先有一些AI的知识储备,这样我才能更好的回答这个问题,那这个过程本质上对应的是RAG。

前端 x AI:从了解提示工程、RAG和微调开始

RAG是一种结合检索与生成的技术,通过实时检索外部知识库中的信息,动态增强大语言模型(LLM)的生成能力,解决传统模型的知识局限性与幻觉问题。其核心流程包括:

  • 检索阶段:从外部知识库(如企业文档、行业数据库)中筛选与用户问题相关的片段;
  • 融合阶段:将检索结果与原始问题整合为增强提示词,输入生成模型;
  • 生成阶段:基于检索内容生成精准、可靠的回答。

RAG具有以下优点:

  • 实时性:动态接入最新数据(如新闻、更新文档),突破模型训练数据的时间限制;
  • 专业性:通过连接领域知识库(如医疗指南、法律条文)提升回答的准确性;
  • 成本效益:无需全量微调模型,仅维护轻量级知识库即可扩展能力;
  • 可信度增强:生成答案基于可追溯的检索证据,减少“一本正经胡说八道”的幻觉风险。

当然这种方法也有缺点:

  • 检索质量依赖:若知识库更新滞后或检索算法不精准(如未正确处理抽象语义),输出结果可能偏离预期;
  • 响应延迟:检索与生成的双阶段流程可能增加处理耗时,影响实时交互体验;
  • 知识冗余干扰:检索到无关片段时,可能干扰生成模型的逻辑判断;
  • 部署复杂度:需同时维护知识库、检索系统与生成模型的协同运行,技术栈门槛较高。

RAG和提升工程一样,也不涉及直接修改模型的底层参数或结构,但是需要维护和开发知识库和检索系统,因此它的成本较高,灵活性会差一些。

它适合如下场景:

  • 当你的应用需要从大量文档或数据库中提取信息,并将这些信息整合到生成的文本中时;
  • 在需要动态更新知识库以反映最新信息的情况下,例如新闻摘要、法律咨询等;
  • 对于需要高度准确性和详细信息的任务,如医疗诊断建议、科研论文撰写辅助等。

3. 微调

还是回到你问我前端如何在实际的业务场景落地AI这个问题上,如果我对前端和AI都很熟悉了,但是依然无法回答这个问题,那有可能是我自身的能力不足,我的解决方案能力和方法论都有待提高,我需要先提升我自己,这样才能更好的回答这个问题,那这个过程本质上对应的是微调。

前端 x AI:从了解提示工程、RAG和微调开始

微调是在预训练大模型(如DeepSeek、GPT等)基础上,使用特定领域的小规模标注数据对模型参数进行调整的技术,旨在提升模型在特定任务中的表现(如医疗诊断、法律文书生成等)。

微调具有以下优点:

  • 专业适配性:通过调整模型权重,可显著提升模型在垂直领域(如金融、法律)的任务精度,例如医疗诊断的容错率接近0%;
  • 响应速度快:生成过程无需外部检索步骤,直接输出结果,实时性优于RAG技术;
  • 模型可控性:参数级别的调整使输出更符合企业合规要求(如金融风控中的敏感词过滤)。

当然这种方法也有缺点:

  • 高成本:需要大量计算资源(数千GPU小时)和高质量标注数据,训练成本远超提升工程和RAG;
  • 数据依赖性:对训练数据的质量和代表性高度敏感,数据不足或偏差易导致模型失效;
  • 过拟合风险:在小型数据集上过度调整可能削弱模型的通用知识能力(如常识推理退化);
  • 知识更新繁琐:需重新训练模型以整合新知识,无法像RAG直接更新知识库。

微调和提升工程、RAG不一样了,它将直接修改模型的底层参数或结构来改造现有模型的能力,因此它的成本最高,灵活性最差。

它适合如下场景:

  • 在有大量领域特定数据可用于训练的情况下,例如金融分析、法律文本分析等领域;
  • 需要模型具有较高准确度和一致性,特别是在专业领域内的任务,如医学诊断、法律咨询等;
  • 当你拥有足够的标记数据,并且希望模型能够深入理解某个特定领域或任务的细微差别时。

4. 说在最后

经过上面的介绍,相信大家对提示工程、RAG、微调有了一个初步的认知。我们在实际的工作中,尽量从提示工程开始,再用RAG,最后才考虑微调,不要一开始就要做微调,这个在工程中是不可取的。随着大模型的升级迭代,大模型的能力是会越来越强的,通过提示工程往往可以解决大部分问题了。

后续将会详细对提示工程、RAG、微调中的技术细节进行介绍,请大家持续关注。

相关资讯

AI 大脑如何被 “套路”?— 揭秘大模型提示词攻防

在人工智能技术爆发式发展的当下,大模型(Large Language Models, 以下简称LLM)凭借其强大的自然语言处理能力,广泛渗透于智能助手、内容创作、代码生成等诸多关键领域,深度重塑着人们的生活与工作范式。 然而,随着 LLM 应用场景的持续拓展与深化,一系列严峻的安全挑战接踵而至,其中提示词攻击已逐渐演变为威胁人工智能系统安全的核心隐患,亟待深入剖析与应对。 一、提示词攻击定义与影响提示词攻击是指攻击者精心构思并输入恶意构造的文本内容,意图干扰和操纵LLM的内部运行逻辑,使其偏离既定的正常行为模式。
5/29/2025 10:32:32 AM
大模型应用防火墙

超实用!Prompt程序员使用指南,大模型各角色代码实战案例

提示词(Prompt)是输入给大模型(LLM)的文本指令,用于明确地告诉大模型你想要解决的问题或完成的任务,也是大语言模型理解用户需求并生成准确答案的基础。 因此 prompt 使用的好坏,直接决定了大模型生成结果的质量(是否符合预期)。 图片Prompt 基本使用为了让大模型生成更符合预期的结果,我们在使用 Prompt 时,可以使用以下模版。
4/3/2025 12:00:00 AM
磊哥

提示词:怎样与大模型沟通

同前面讲大模型特点类似,关于如何使用 GPT,我们也会分成两个视角:用户视角和技术视角。 这一讲,我们先从用户视角来看看如何用好 GPT。 用好 GPT若要充分发挥 GPT 的效用,需遵循以下步骤:首先是定义任务目标。
11/26/2024 11:44:04 AM
greencoatman
  • 1