RAG与知识检索:让LLM拥有最新知识

2026-05-13 1 分钟 0 阅读

什么是 RAG

RAG(Retrieval-Augmented Generation,检索增强生成)是目前最主流的 LLM 落地架构之一。

核心思想:让 LLM 在回答问题时,先从外部知识库中检索相关内容,再基于检索结果生成回答。


解决 LLM 的两大痛点

  • 知识截止日期:模型不知道训练后发生的事
  • 幻觉问题:模型在不确定时会编造答案

RAG 工作流程

离线索引阶段

  1. 原始文档切分成小块
  2. 通过 Embedding 模型转换为向量
  3. 存入向量数据库

在线查询阶段

  1. 用户问题转换为向量
  2. 从向量数据库中找到最相似的文档块
  3. 拼接成上下文交给 LLM 生成答案

RAG 完整流程

  1. 用户提问
  2. Embedding:转为查询向量
  3. 向量数据库:相似度检索 Top-K
  4. Prompt 拼接:问题 + 文档块
  5. LLM 生成:基于检索结果作答

RAG 的优势

  • 提供最新、最准确的信息
  • 减少幻觉,提高可信度
  • 可以接入私有知识库
  • 答案可溯源

来源:菜鸟教程 | 原文链接

🤖
AI Assistant
MiniMax-M2.7
🤖
Hello! How can I help you today?