
RAG,Agent 和 workflow 区别
AI 中的 RAG(Retrieval-Augmented Generation)、Agent 和 Workflow 是三种不同的概念,它们分别解决不同的问题,常在构建智能系统时协同使用。
AI 中的 RAG(Retrieval-Augmented Generation)、Agent 和 Workflow 是三种不同的概念,它们分别解决不同的问题,常在构建智能系统时协同使用。
三者主要区别
以下是它们的定义、区别及应用场景:
一、RAG(Retrieval-Augmented Generation)
RAG技术(Retrieval Augmented Generation,检索增强生成)是一种结合了信息检索技术与语言生成模型的人工智能技术,旨在通过从外部知识库中检索相关信息,并将其作为提示输入给大型语言模型(LLMs),以增强模型处理知识密集型任务的能力。
RAG技术主要包括三个核心部分:检索(Retrieval)、增强(Augmentation)和生成(Generation)。
1、检索
从预先建立的知识库中检索与用户查询相关的信息。这一步骤的目的是为后续的生成过程提供有用的上下文信息和知识支撑。检索模块通常依赖于向量检索技术,如倒排索引、BM25算法或基于深度学习的Dense Passage Retrieval(DPR)。
2、增强
将检索到的信息用作生成模型(即大语言模型)的上下文输入,以增强模型对特定问题的理解和回答能力。这一步的目的是将外部知识融入生成过程中,使生成的文本内容更加丰富、准确和符合用户需求。
3、生成
结合LLM生成符合用户需求的回答。生成器会利用检索到的信息作为上下文输入,并结合大语言模型来生成文本内容,最终输出准确、有用的回答。
一个典型的 RAG 案例如图所示。如果我们向 ChatGPT 询问 OpenAI CEO Sam Atlman 在短短几天内突然解雇随后又被复职的事情。由于受到预训练数据的限制,缺乏对最近事件的知识,ChatGPT 则表示无法回答。RAG 则通过从外部知识库检索最新的文档摘录来解决这一差距。在这个例子中,它获取了一系列与询问相关的新闻文章。这些文章,连同最初的问题,随后被合并成一个丰富的提示,使 ChatGPT 能够综合出一个有根据的回应。
图1 RAG 技术在 QA 问题中的案例
1、RAG 技术范式发展
RAG 的概念首次于 2020 年被提出,随后进入高速发展。RAG 技术的演进历程如图所示,相关研究进展可以明确地划分为数个关键阶段。在早期的预训练阶段,研究的焦点集中在如何通过预训练模型注入额外的知识,以此增强语言模型的能力。随着 ChatGPT 的面世,对于运用大型模型进行深层次上下文学习的兴趣激增,这推动了 RAG 技术在研究领域的快速发展。随着 LLMs 的潜力被进一步开发,旨在提升模型的可控性并满足不断演变的需求,RAG 的研究逐渐聚焦于增强推理能力,并且也探索了在微调过程中的各种改进方法。特别是随着 GPT-4 的发布,RAG 技术经历了一次深刻的变革。研究重点开始转移至一种新的融合 RAG 和微调策略的方法,并且持续关注对预训练方法的优化。
图2 RAG 技术发展的科技树
2、RAG 的生态
RAG 的应用已经不仅仅局限于问答系统,其影响力正在扩展到更多领域。现在,推荐系统、信息抽取和报告生成等多种任务都开始受益于 RAG 技术的应用。与此同时,RAG 技术栈也在井喷。除了已知的 Langchain 和 LlamaIndex 等工具,市场上涌现出更多针对性的 RAG 工具,例如:用途定制化,满足更加聚焦场景的需求;使用简易化,进一步降低上手门槛的;功能专业化,逐渐面向生产环境。
图3 RAG 的生态系统概览
二、Agent
AI Agent 是一种能够基于任务目标执行多步骤动作的系统,它能通过调用工具、API 或知识库,动态规划并完成复杂任务。Agent 具备一定程度的自主决策能力。
图4 LLM-based Agent的概念框架
AI 智能体,严格意义上说更应该是一个具备智能的系统,能够理解复杂任务,利用LLM的规划能力将其拆解为子任务,并利用LLM的知识和工具调用能力来完成任务。
在这个系统中,LLM充当大脑的角色,负责统筹全局,进行决策处理,自动协调系统内的各个组件。
AI Agent的主要特点包括:
1、 自主性:AI Agent能够在没有外部干预的情况下,根据其内部目标和规则进行决策和行动。
2、 感知能力:AI Agent可以通过各种传感器或数据接口获取环境信息,并处理这些信息以进行决策。
3、学习能力:AI Agent可以根据经验和数据进行学习,从而改进其决策和行动策略,提高任务完成的效率和准确性。
4、适应性:AI Agent可以根据环境变化调整其行为,以应对不同的情况和挑战。
哪些场景需要智能体?
在面对需要多种能力才能完成的任务,且需要借助LLM强大的推理决策能力时,就需要智能体了,基于LLM来决策使用各种内置能力,或是设置多个智能体,通过相互协作,最终来完成用户任务。
智能体在多个场景中都有广泛应用,主要包括以下几个方面:
1、客户服务:智能体可以通过自然语言处理和机器学习技术,自动回答客户的咨询问题、处理订单问题和退货请求,提高客户服务的效率,减少用户的等待时间。
2、物流和供应链管理:在物流领域,智能体可以优化库存管理、路线规划和调度,提高物流效率。例如,自主库存跟踪智能体可以通过监控市场趋势和需求模式来预测库存水平,防止缺货情况;送货车队的路线优化智能体可以根据天气、交通和燃油效率来分配送货路线。
3、医疗保健:智能体可以用于自主预约安排和患者管理,提高医疗保健工作流程的效率。例如,AI驱动的日程安排助手可以根据患者可用性、临床医生的日程安排和诊所资源自动预约,确保患者护理的连续性。
4、金融 :在金融领域,智能体可以用于欺诈检测和自主交易系统。欺诈检测智能体可以识别可疑交易,防止欺诈活动;自主交易系统可以在高频交易中快速分析市场并执行交易,降低风险。
5、电商:智能体在电商领域的应用包括个性化推荐系统、智能客服与支持、语音助手与购物体验以及内容生成与营销。个性化推荐系统可以根据用户的购物历史和偏好提供精准推荐,提高用户满意度和销售额;智能客服可以自动回答用户咨询,处理订单问题;语音助手可以让用户通过语音命令购物,提升购物便捷性;内容生成与营销可以帮助企业生成吸引人的产品描述和营销文案。
6、研发: 在研发领域,智能体可以提供代码预测续写、注释生成代码、智能代码评审等功能,显著提升研发效率。
7、协同办公:智能体可以实现消息、会议、文档和邮件的智能化管理,提升办公效率。
三、Workflow
Workflow是一组有序的步骤,用于执行某个固定任务,通常是预先定义的,适合高度结构化的流程。Workflow的核心特点在于每个步骤都有明确的顺序和依赖关系,确保任务能够按照既定的规则和顺序高效执行。应用场景包括文档审批流程、数据管道处理等。优点于执行结果通常是可预测和一致的,适合处理结构化、重复性任务。
图5 工作流程示意图
Workflow的特点包括:
- 固定性:流程步骤固定且明确,适合标准化、重复性高的任务。
- 稳定性:执行过程稳定可靠,易于监控和管理。
- 模块化:各组件功能独立,便于添加新工具或能力。
Workflow引擎是其核心组成部分,负责解释、执行和管理整个工作流的运行。
应用场景有:
- 文档审批流程:如合同从起草到签署的固定步骤
- 数据管道处理:如从数据采集到清洗、分析的自动化流程
- 持续集成/部署:如软件开发中自动化构建、测试、部署
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)