什么是RAG?大模型和RAG有什么关系?
在讲RAG之前,我们先说一个大模型的普遍现象,大家应该都用过大模型了,比如 ChatGPT、DeepSeek、豆包、文心一言等等…那么大家在用的时候其实会发现,有时候大模型会乱回答,
写在前面
在讲RAG之前,我们先说一个大模型的普遍现象,大家应该都用过大模型了,比如 ChatGPT、DeepSeek、豆包、文心一言等等…
那么大家在用的时候其实会发现,有时候大模型会乱回答,一本正经地胡说八道,语义不同,前言不搭后语。
举个例子:你问大模型,美国成立时间。 大模型可能会回答:美国成立在1997年,距离现在已有400年的历史…
这种现象叫hallucination,幻觉。大模型本质的就是不断的预测下一个生成的文字应该是什么,而选择预测概率中最大的一个。
每个词预测的结果
产生幻觉的原因有很多,比如训练大模型本身的数据问题、过拟合、微调引起的知识丧失、推理机制的不完善等等
…
而我们要说的RAG就是为了降低大模型出现幻觉的概率
,下面开始我们今天的主题。
RAG简介
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与文本生成的技术,旨在提升大语言模型在回答专业问题时的准确性和可靠性。
核心原理为 检索
+ 生成
两阶段流程 :
- 检索阶段:将用户的问题转化为向量,从外部知识库或私有文档中(向量数据库)快速检索相关片段。
- 生成阶段:将检索到的信息输入大模型,生成结合上下文的具体回答。
这样说可能比较生硬,打个比方:LLM在考试的时候面对陌生的领域,只会写一个解字(因为LLM也只是局限于特定的数据集进行训练),然后就准备放飞自我了,而此时RAG给了亿些提示,让LLM懂了开始往这个提示的方向做,最终考试的正确率从60%到了90%!
LLM+RAG
简单来说就是大家的开卷考试
!!那么问题来了,LLM开卷考试的话,这个卷是啥呢?这里就涉及到向量数据库
了。
为什么是向量数据库?传统数据库为啥不行?
向量数据库
向量数据库是通过存储文本的向量化
表示,支持基于语义相似度的快速检索
, 解决了传统关键词匹配无法捕捉上下文关联的问题。
如果使用传统数据库(如MySQL)结合关键词检索,但无法实现语义理解,可能导致漏检或误检。 举个例子,同一个query进行搜索:“2024年腾讯的技术创新”。
- 向量数据库能匹配到语义相近但未包含关键词“腾讯”的文档(如“WXG的研发进展”)
- 传统数据库只能匹配到包含关键词的
那向量数据库是怎么知道语义相似的?
我们先明白向量数据库存储的是向量,不是文本,文本是大家能看懂的文字,而向量是一串浮点型数据
。那么当所有的文本都成了浮点型数据后,计算机可以通过数学公式(比如余弦相似度),量化语义相似性。传统数据库用原始文本检索,则无法处理同义词、多义词、语境差异等语义问题(例如“苹果”可能指水果或公司),所以很多传统搜索都会进行query改写这一步,来让搜索的输入query更精确。当然不仅仅是文本,
万物皆可embedding
,图片、videos、音频等等…
RAG 过程
RAG过程
回到最开头的例子:
- 当用户对大模型提问,“美国的成立时间”
- 此时会通过embeding模型将文本转成向量
- 再到向量数据库中搜索语言相近的内容
- 向量数据库会给出一个TopK,例如 Top100
- 接着在进行过重排序模型,再筛选出Top N,例如 Top10
- 将搜索到的内容和用户所搜索的query词"美国的成立时间"整个成一个prompt一起给LLM
- LLM基于这些输入内容和自身内容进行输出。
这样就可以有效的控制大模型输出尽可能的相关并且语义相通的内容
。
那么向量数据库如何构造呢?其实很简单:
- 将文章进行分片成多组chunk,也就是大量文本分解为较小段
- 进行向量化
- 存到向量数据库
那这里为什么要进行chunking呢?
chunking是为了把相同语义的 token 聚集在一起,不同语义的 token 互相分开,在长文档中各个片段的语义可能存在较大差异,如果将整个文档作为一个整体进行知识检索,会导致语义杂揉,影响检索效果。 将长文档切分成多个小块,可以使得每个小块内部表意一致,块之间表意存在多样性,从而更充分地发挥知识检索的作用。
所以如果我们的块太小会导致错过真正的相关内容,太大则可能导致搜索结果不准确
如何学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?
”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人」
,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
👉 福利来袭
CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
全套AGI大模型学习大纲+路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
👉 福利来袭
CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。
更多推荐
所有评论(0)