目录
-
- 生产环境中的四种 LLM 方法
-
- 1. 基于上下文的提示工程 -- Prompt Engineering
- 2. 检索增强生成 -- RAG
- 3. 微调模型 -- Fine Tune
- 4. 训练模型
- 参考
随着大型语言模型 (LLM) 的快速发展,企业正积极探索其用例,并将首批生成式 AI 应用部署到生产环境中。自今年 LLM 或 LLMOps 真正开始部署以来,企业已经采用了四种 LLM 部署方法,具体取决于其人才、工具和资本投资的组合。请记住,随着新的 LLM 优化和工具的定期推出,这些部署方法将不断发展。
本文旨在详细介绍这些方法,并讨论这些设计选择背后的决策。
生产环境中的四种 LLM 方法
企业正在采取四种不同的方法来开启他们的 LLM 之旅。这四种方法的部署难度和成本从易到难、从低到高,企业在选择适合其 AI 战略的方法时,应评估其 AI 成熟度、模型选择(开放式与封闭式)、可用数据、用例和投资资源。让我们深入探讨一下。
1. 基于上下文的提示工程 – Prompt Engineering
许多企业将从这种方法开始他们的 LLM 之旅,因为它是最具成本效益和时间效率的。这涉及直接使用提示调用第三方 AI 提供商,如 OpenAI、Cohere 或 Anthropic。然而,鉴于这些是通用的 LLM,除非以特定方式构建问题或通过更多指导来引导,否则它们可能无法回答问题或给出正确答案。构建这些提示,也称为“提示工程Prompt Engineering”,需要创造性的写作技巧和多次迭代才能获得最佳响应。