RAG 概念最早是 2020 年 Meta(当时还叫 Facebook AI)的研究团队提出的。他们的思路很直接:与其让模型把所有东西都记在脑子里,不如教它"先查资料,再回答"。这样一来,模型的回答就有据可依了——既利用了大模型理解语义的能力,又能接入最新的、私有的知识库数据。
我觉得了解什么事RAG之前要了解什么事LLM 大模型 因为RAG是一种将强大的信息检索 (Information Retrieval, IR) 技术与生成式大语言模型 (LLM) 相结合的框架。
简单的说大模型是一个把互联网的海量知识数据喂给模型 让模型具有语言规律 世界常识 和推理能力 这样的大模型会有一些问题 比如
幻觉问题 它会一本正经的胡说八道给你生成一个看起来合理却完全错误的内容 因为大模型推理本质是预测概率最高的词 它并不理解真正意思 它对某个问题不知道时 它就开始胡说八道了
时效性问题 模型的知识内容是截止到你训练截止的时间
私有数据无法获取 因为大模型是在公开数据训练无法访问你自己企业的数据 机密文件
无法追溯 大模型的回答无法给你提供出处
所以就出现了RAG 在让 LLM 回答问题或生成文本之前,先从一个大规模的知识库(如数据库、文档集合)中检索出相关的上下文信息,然后将这些信息与原始问题一并提供给 LLM,从而“增强”其生成能力,使其能够产出更准确、更具时效性、更符合特定领域知识的回答。
下面列举几个最常见的场景:
客服机器人:基于产品知识库做问答、排障、流程引导;例:“如何退换货/开发票?”“某型号设备报错码怎么处理?”
研发/运维 Copilot:检索代码库、接口文档、告警手册,辅助定位问题与生成修复建议。
医疗助手:检索指南/药品说明/院内规范后生成辅助建议(不做最终诊断);例:“某药禁忌是什么?”“依据指南解释检查指标含义”。
法律咨询:基于法规条文/案例/合同模板检索,生成条款解释与风险提示;例:“违约金如何计算?”“不可抗力条款怎么写更稳妥?”
教育辅导:从教材/讲义/题库检索知识点,生成讲解与例题步骤;例:“这道题对应哪个公式?怎么推导?”
企业内部助手:连接制度、SOP、会议纪要、技术文档做检索/总结/对比;例:“某流程最新版本是什么?”“对比两份方案差异并给结论”。
其他:投研/合规/审计(报告/披露/内控);销售/方案支持(产品手册/标书模板、生成方案并标注出处)。