实现基于RAG的Q&A应用程序
LLM 支持的最强大的应用程序之一是复杂的 问答 (Q&A) 聊天机器人。这些应用程序可以 回答有关特定来源信息的问题。这些应用程序 使用一种称为检索增强生成 (RAG) 的技术。
什么是检索增强生成 (RAG)
通用语言模型通过微调就可以完成几类常见任务,比如分析情绪和识别命名实体。这些任务不需要额外的背景知识就可以完成。
要完成更复杂和知识密集型的任务,可以基于语言模型构建一个系统,访问外部知识源来做到。这样的实现与事实更加一性,生成的答案更可靠,还有助于缓解“幻觉”问题。
Meta AI 的研究人员引入了一种叫做检索增强生成(Retrieval Augmented Generation,RAG)的方法来完成这类知识密集型的任务。RAG 把一个信息检索组件和文本生成模型结合在一起。RAG 可以微调,其内部知识的修改方式很高效,不需要对整个模型进行重新训练。
RAG 会接受输入并检索出一组相关/支撑的文档,并给出文档的来源(例如维基百科)。这些文档作为上下文和输入的原始提示词组合,送给文本生成器得到最终的输出。这样 RAG 更加适应事实会随时间变化的情况。这非常有用,因为 LLM 的参数化知识是静态的。RAG 让语言模型不用重新训练就能够获取最新的信息,基于检索生成产生可靠的输出。
RAG 架构
典型的 RAG 应用程序有两个主要组件:
索引:用于从源引入数据并编制索引的管道 它。这通常发生在离线状态。
检索和生成:实际的 RAG 链,它需要用户 在运行时查询并从索引中检索相关数据,然后 将其传递给模型。
从原始数据到答案最常见的完整序列如下所示:
索引
- 加载:首先我们需要加载数据。这是使用 DocumentLoaders 完成的。
- 拆分:文本 分离器将大块分成更小的块。这对于以下方面都很有用 索引数据并将其传递到模型,因为大块 更难搜索,并且不适合模型的有限上下文 窗。Documents
- 存储:我们需要某个地方来存储和索引我们的拆分,以便 以后可以搜索它们。这通常是使用 VectorStore 和 Embeddings 模型完成的。
检索和生成
- 检索:给定用户输入,从中检索相关拆分 使用猎犬进行存储。
- 生成:ChatModel / LLM 使用 包含问题和检索数据的提示
案例参考
在LangChain 文档中可以找到一个使用检索器和 LLM 回答问题并给出知识来源的简单例子。