提示工程 vs 微调 vs RAG 自从大型语言模型(LLMs)及高级对话模型推出以来,已经开发了多种技术以从这些人工智能系统中提取期望的输出。部分技术专注于调整模型行为,以更准确地满足预期,而其他技术则致力于优化查询LLMs的策略,以获得更精确和相关的信息。检索增强生成(Retrieval Augmented Generation,RAG)、提示工程(Prompting)和微调(Fine-tuning)等技术被广泛采用。在先前的系列文章中,已对RAG和微调技术进行了详细讨论,包括使用OpenAI平台和Hugging Face框架进行微调的方法。当前的讨论将转向对比分析,旨在评估每种技术的优劣。理解这些技术的适用场景和有效运用方式至关重要。接下来,将展开对比分析,探讨每种方法的独特性。 01
提示工程
提示(Prompting)是与任何大型语言模型(Large Language Model)互动的最基本方式。这类似于提供指令。当使用提示时,您是在告诉模型您希望它提供哪种类型的信息。这也被称为提示工程(prompt engineering)。这有点像学习如何提出正确的问题以获得最佳的答案。但是,您能从中获得的信息量是有限的。这是因为模型只能返回其在训练过程中已经知道的内容。提示工程的一大特点是操作简便直观,无需具备深厚技术背景的大多数用户皆可轻松应用,这无疑是一大优势。然而,由于其很大程度上依赖于模型原始学习内容,可能无法始终提供您所需的新颖或最具体信息。因此,提示工程在处理一般性话题,或者仅需快速获取答案而不涉及过多细节的情况下效果最佳。