RAG
RAG技术概述
RAG是一种结合了检索机制和大语言模型的技术。它通过从一个长文档或文档集合中检索相关信息,然后将这些信息融合到大模型的生成过程中,以提高模型的回答质量、准确性和实时性。
特点与优势
实时性
可扩展性
提升特定领域任务的性能
减轻大模型的幻觉问题。
技术方案
检索优化
过滤器
筛选出有利于LM生成质量的内容,过滤掉不相关的检索信息。
MetaGPT的RAG功能
应用
基于RAG的企业知识库问答
RAG vs Agent
Qwen-Agent RAG
不微调、直接使用上下文为8K的LLM处理百万字上下文。
RAG将上下文分割成较短的块,每块不超过512,仅保留最相关的8K在上下文中。
精准定位最相关的块
输入构造:将查询中的指令信息和非指令信息分开。
推导多语言关键词:从查询的非指令信息推导除多语言关键词。
检索:使用BM25检索关键词相关的块。
相关块与查询词重叠度低
相关块与查询词重叠度低导致有些相关块无法被检索到。使用类似于搜索中的查询改写方法,将相关块作为查询词,通过BM25检索更多相关块。
多跳推理
利用大模型的问题分解、规划和推理能力,将原查询分解成多个问题进行检索,再通过大模型将检索结果整合成回答。
RAGFlow
定制化开发
参考
项目
RAGFlow
Semantic Chunker
FILCO:Filter Context for Retrieval-Augmented Generation
Blogs
RAG
https://summerchengh.github.io/tech-blog/2025/03/27/大模型-RAG/