企业宣传网站德州建设街小学网站
2025/12/29 13:16:39 网站建设 项目流程
企业宣传网站,德州建设街小学网站,北京做百度网站,2015帝国cms网站文章详解AI智能体架构9大核心技术#xff1a;AI智能体、Agentic AI、工作流、RAG、微调、函数调用、MCP、A2A和AG-UI协议。这些技术构成大模型智能应用的核心框架#xff0c;覆盖从底层架构到用户界面的完整技术栈#xff0c;为开发者构建AI系统提供全面指导。 AI 智能体架构…文章详解AI智能体架构9大核心技术AI智能体、Agentic AI、工作流、RAG、微调、函数调用、MCP、A2A和AG-UI协议。这些技术构成大模型智能应用的核心框架覆盖从底层架构到用户界面的完整技术栈为开发者构建AI系统提供全面指导。AI 智能体架构设计的9大核心技术包括AI 智能体、Agentic AI、WorkFlow、RAG、Fine-tuning、Function Calling、MCP、A2A、AG-UI 等下文详细剖析之。—1—AI 智能体架构的9大核心技术AI 智能体架构设计核心技术一AI 智能体AI 智能体是一种具备自主意识的软件它能够感知环境、进行逻辑推理和决策并实施相应动作。它可以被比作一位高效的个人助手不仅能够执行命令更重要的是能够理解任务的上下文、规划执行方案并在遇到挑战时灵活地改变策略。AI 智能体的核心在于其如何接收指令、执行任务并做出决策。以下是其关键组成部分Prompt提示词Prompt 是指导大语言模型LLM如何行动的指令它定义了 LLM 可以使用的“工具”。Prompt 的输出是一个 JSON 对象用于描述工作流程中的下一步操作比如“工具调用”或“函数调用”。Switch 语句Switch 语句根据 LLM 返回的 JSON 内容决定后续操作。这是整个流程中的一个重要环节用于解析 LLM 的输出并执行相应的动作。累积的上下文累积的上下文用于记录已执行的操作步骤及其运行结果。这一部分是 AI 智能体决策的重要依据帮助其跟踪任务的进展。For 循环For 循环是整个流程的驱动机制。它循环执行以下操作直至 LLM 返回终止信号比如标记为“Terminal”的工具调用或自然语言响应将 switch 语句的执行结果加入上下文窗口并让 LLM 决定下一步动作。这种设计使得 AI 智能体能够高效地执行任务同时具备灵活性和适应性。AI 智能体架构设计核心技术二Agentic AIAgentic AI 开启了一种全新的架构范式。与传统的单体 AI 智能体架构不同Agentic AI 系统架构由多个 AI 智能体组成这些 AI 智能体能够相互协作具备动态任务分解、持久记忆和高级任务编排等能力。这种架构使得系统能够处理更复杂的工作流程并实现更高层次的协调。如果将 AI 智能体比作独奏者那么 Agentic AI 就像是一个交响乐团。在Agentic AI 系统中每个 AI 智能体都有其独特的角色和能力它们可以相互协作、共享信息并根据任务需求动态调整策略。这种协作模式让系统能够应对那些超出单个 AI 智能体能力范围的复杂任务。Agentic AI 的应用场景极为广泛且复杂。在医疗领域它可以协调多个专业 AI系统进行综合诊断在科学研究中它可以组织多个研究助手进行协作调研在机器人技术中它可以指挥多个机器人协同工作。这些应用场景都要求系统具备高度的协调能力和动态适应性。AI 智能体架构设计核心技术三工作流WorkFlow工作流 WorkFlow 其实很简单就是把一项大任务拆成很多个小任务然后按顺序一步一步完成最后达成目标。想象一下工厂里的流水线一个大任务被分成很多个小步骤每个步骤都有专人负责。比如第一个人做完自己的部分就把东西交给第二个人第二个人接着做就这样一直传下去直到最后完成整个任务。这样一来每个人都知道自己该做什么效率和质量都能提高。在一些特别需要准确性的场景里如果让 AI 智能体自己决定任务怎么一步步做可能会出错甚至产生一些不靠谱的结果我们叫它“幻觉”。这时候工作流就能派上用场了。我们可以提前把任务的步骤安排好让 AI 智能体按照这个顺序来执行这样就能减少出错的几率。举个例子假设我们有一个处理订单的 AI 智能体。当员工把订单信息录进去后工作流就会自动开始检查库存。如果库存够AI 智能体就直接安排发货如果库存不够它就先创建一个补货任务通知采购部门赶紧补货同时还会给客户发个消息告诉他们大概什么时候能发货。不过工作流也不是万能的。如果设计得不好比如步骤太多或者顺序乱了任务处理起来就会很慢。所以我们需要专业的人员比如产品经理来帮忙优化把工作流梳理得更合理。AI 智能体架构设计核心技术四RAGRetrieval-Augmented GenerationRAG检索增强生成系统一直是企业里使用 AI 智能体最有用的技术之一。RAG 最简单的架构设计实现方式如下所示预处理阶段把整个知识库的文本资料分割成一个个小块每个小块都是一段可以查询的文本。这些资料可能来自不同的地方比如公司内部的文档、PDF 报告等。用一个特殊的模型嵌入模型把这些文本块转换成一种特殊的代码向量嵌入。把这些代码存到一个特殊的数据库向量数据库里同时保存每个向量对应的原始文本和指向向量的链接。检索阶段在向量数据库里用同一个嵌入模型处理知识库中的文档内容和用户的问题确保查询和知识库中的信息能够准确匹配。在向量数据库的索引上运行查询选择要检索的向量数量这决定了你将用多少上下文信息来回答查询。向量数据库会执行一个搜索找到最相似的向量然后把这些向量映射回它们对应的原始文本块。把问题和检索到的上下文文本块一起通过一个提示词传递给大语言模型告诉模型只用这些上下文来回答这个问题。这并不意味着不需要设计好的提示词–你还需要确保模型返回的答案符合预期比如如果检索到的上下文中没有相关信息就不要编造答案。AI 智能体架构设计核心技术五微调Fine-tuning通用大模型已经很强大了落地 AI 智能体应用时我们还需要继续微调它有以下5点需要微调的原因第一、大模型和人脑在处理信息时采用的策略有很大的不同。第二、缺乏专有数据比如企业内部的私有数据。第三、缺乏最新数据比如Qwen-3 的训练数据截止到2024年10月。第四、预训练成本高比如DeepSeek R1 预训练成本为 500万美金。第五、提升数据安全性比如企业私有数据是不能传递给第三方大模型的基于开源大模型的微调才能满足业务的需求。微调Fine-tuning分为全参数量微调和局部参数量微调或者叫 PEFT 高效参数微调PEFT 微调步骤如下**第一步、**数据工程选择整理本次微调所需要的知识即任务数据集以QA的问答对整理好微调的数据量最好在 10K~100K 量级。**第二步、**加载预训练大模型比如Qwen-3-32B选择一个与所需任务相关的预训练大模型并加载其权重。**第三步、**对大模型进行微调将第一步任务数据集作为输入以最小化大模型在此数据集上的损失函数。在这个过程中通常需要在训练集和验证集上进行多次迭代以避免过拟合问题。基于以上步骤详细总结如下AI 智能体架构设计核心技术六函数调用Function CallingFunction Calling 是由 OpenAI 等公司推动的一种技术它允许大语言模型LLM通过自然语言指令与外部工具和服务进行交互从而将自然语言转换为具体的 API 调用。这一技术解决了大语言模型在训练完成后知识更新停滞的问题使大模型能够获取实时信息比如当前的天气、股市收盘点数等。第一、工作原理Function Calling 的工作原理可以通过以下4个步骤来理解1、识别需求大模型识别出用户的问题需要调用外部 API 来获取实时信息。比如用户询问“今天北京的天气如何”大模型会识别出这是一个关于实时天气的问题。2、选择函数大模型从可用的函数库中选择合适的函数。在这个例子中大模型会选择 get_current_weather 函数。3、准备参数大模型准备调用函数所需的参数。例如{3、调用函数AI 应用使用这些参数调用实际的天气 API获取北京的实时天气数据。4、整合回答大模型将获取的数据整合成一个完整的回答比如“根据最新数据北京今天的天气晴朗当前温度23°C湿度45%微风。今天的最高温度预计为26°C最低温度为18°C。”第二、对开发者的好处对于开发者来说使用 LLM 的 Function Calling 入门相对容易。开发者只需按照 API 的要求定义函数规格通常是 JSON 格式并将其随 Prompt 请求发送给大模型。大模型会根据需要调用这些函数整个逻辑相当直观。因此对于单一大模型、少量功能的简单应用Function Calling 的实现非常直接几乎可以“一键”将大模型输出对接到代码逻辑中。第三、局限性然而Function Calling 也有一些局限性缺乏跨大模型的一致性每个 LLM 供应商的接口格式略有差异这使得开发者在支持多个大模型时需要为不同的 API 做适配或者使用额外的框架来处理这些差异。平台依赖性Function Calling 通常依赖于特定的平台或框架这限制了其在不同环境中的通用性。扩展性有限虽然 Function Calling 能够解决特定问题但在面对更复杂的任务时其扩展性可能会受到限制。开发者可能需要为每个新功能编写新的函数并确保这些函数与模型的交互逻辑兼容。第四、总结Function Calling 是一种强大的工具它为大语言模型提供了与外部工具和服务交互的能力从而解决了大模型知识更新停滞的问题。然而它的局限性在于缺乏跨模型的一致性和平台依赖性。尽管如此Function Calling 仍然是一个重要的技术尤其是在需要快速实现特定功能时。未来随着技术的不断发展我们期待看到更多能够克服这些局限性的解决方案。AI 智能体架构设计核心技术七MCPModel Context ProtocolMCPModel Context Protocol是由 Anthropic 公司提出的一种协议旨在解决不同大语言模型LLM与不同外部工具集成的标准化问题。通过MCP开发者能够以一种统一的方式将各种数据源和工具连接到 AI 大模型从而提升大模型的实用性和灵活性。目前MCP 生态已经得到了广泛的支持包括 Anthropic 的 Claude 系列、OpenAI 的 GPT 系列、Meta 的 Llama 系列、DeepSeek、阿里的通义系列以及 Anysphere 的 Cursor 等主流模型均已接入 MCP 生态。第一、MCP 的架构设计MCP 采用了客户端-服务器架构主要包括以下几个核心组件1、MCP 主机Hosts角色这是需要访问数据的程序例如Claude Desktop、各种IDE或AI工具。功能它们是MCP生态系统的入口点负责向用户提供AI功能并作为用户与AI模型之间的桥梁。2、MCP 客户端Clients角色这些是协议客户端负责维持与 MCP 服务器的1:1连接。功能它们处理通信细节确保主机和服务器之间的数据传输顺畅从而实现高效的数据交互。3、MCP 服务器Servers角色这些是轻量级程序每个服务器都通过标准化的 Model Context Protocol 暴露特定功能。功能服务器是 MCP 的核心它们连接 AI 大模型与实际数据源使模型能够访问和操作数据。4、数据源本地数据源包括您计算机上的文件、数据库和服务MCP 服务器可以安全地访问这些资源。远程服务通过互联网可用的外部系统比如通过 APIMCP 服务器可以连接这些系统从而扩展模型的能力。第二、MCP 的优势统一性MCP 提供了一个统一的协议标准使得不同 AI 大模型能够以一致的方式连接到各种数据源和工具从而避免了平台依赖性问题。安全性通过 MCP数据的传输和访问过程更加安全敏感数据可以保留在本地无需全部上传到云端。灵活性MCP 支持多种数据源和工具的连接无论是本地资源还是远程服务都可以轻松集成到AI 应用中。生态丰富MCP 生态已经得到了广泛的支持开发者可以利用现有的MCP服务器和工具快速构建和部署AI应用。第三、总结MCP 通过其客户端-服务器架构和标准化的协议为 AI 大模型与外部工具和数据源的集成提供了一个高效、安全且灵活的解决方案。它不仅解决了不同大模型与工具之间的兼容性问题还为开发者提供了一个丰富的生态系统使得AI应用的开发和部署变得更加简单和高效。AI 智能体架构设计核心技术八A2AAgent2Agent第一、为什么会有 A2A现在越来越清楚未来的 Agentic AI 将是多 AI 智能体的。而且这些 AI 智能体会在彼此之间远程协作每个 AI 智体都可能使用不同的 AI 智能体框架比如Spring AI Alibaba、LangGraph、AutoGen、CrewAI、Agent Development Kit 等来实现。这里面有3个固有的问题1、不同框架实现的 AI 智能体系统之间不支持系统状态的转移和交换。2、远程 AI 智能体之间也无法转移系统状态。3、离线的 AI 智能体不共享工具、上下文和内存包括系统状态。第二、A2A 解决方案A2A 是一个开放协议它为 AI 智能体之间提供了一种标准方式无论底层开发框架或供应商如何都可以进行协作。根据谷歌的官方文档 A2A 协议促进了“客户端”和“远程” AI 智能体之间的通信。简单来说“客户端” AI 智能体创建任务并与“远程” AI 智能体沟通期望执行某些工作或返回数据。第三、A2A 架构设计1、能力发现所有实现 A2A 的 AI 智能体都通过“Agent Card”公开其能力目录。这有助于其他 AI 智能体发现给定 AI 智能体实现的潜在有用功能。2、任务管理通信协议时代短期和长期任务变得更容易。它帮助通信中的 AI 智能体保持同步直到请求的任务完成并返回答案。这很重要因为有些 AI 智能体可能需要很长时间来执行工作而且目前没有统一标准如何等待这种情况发生。3、协作AI 智能体可以相互发送消息以传达上下文、回复、工件或用户指令。4、用户体验协商这是一个很有趣的功能。它允许协商数据返回的格式以符合用户界面的期望比如图像、视频、文本等。通过 A2A 公开的 AI 智能体的发现是一个重要话题。谷歌建议使用统一的位置来存储组织的“Agent Card”。比如https://DOMAIN/agreed-path/agent.json这并不意外因为谷歌将处于最佳位置能够索引全球所有可用的 AI Agent可能创建一个类似于当前搜索引擎索引的全球 AI Agent 目录。我喜欢 A2A 强调无需重新发明轮子并且建立在现有标准之上1、该协议建立在现有、流行的标准之上包括HTTP、SSE、JSON-RPC这意味着它更容易与企业日常使用的现有 IT 堆栈集成。2、默认安全 - A2A 旨在支持企业级身份验证和授权与 OpenAPI 的身份验证方案相当。AI 智能体架构设计核心技术九AG-UIAgent User Interaction Protocol随着 AI 智能体在企业中应用越来越广AI 智能体在落地过程中MCP 解决了 AI 智能体到 Tools 之间的通信标准A2A 解决了 AI 智能体到 AI 智能体之间的通信标准。但是仍缺少一块用户到 AI 智能体的通信协议。AG-UI 协议横空出世专为解决前端应用与 AI 智能体的通信交互而设计。AG-UI 让你能够轻松地在网页、APP、应用程序或嵌入式设备中集成 AI 助手、AI 客服和智能问答 UI避免了为每个应用程序重复开发基础功能的麻烦也省去了处理交互逻辑的烦恼。AG-UI 完善了 AI 协议栈专注于构建 AI 智能体与用户前端之间的桥梁。它采用事件驱动的设计定义了16种标准事件并支持 SSE、WebSocket 和 Webhook 等传输方式与 LangGraph、CrewAI 等框架兼容。它就像是为你的前端安装了一个 AI “大脑”无需绑定到特定的模型或框架一套协议就能满足所有的交互需求。第一、为什么需要 AG-UI每个 AI 智能体后端都有自己的工具调用、ReAct 样式规划、状态差异和输出格式机制。如果你使用 LangGraph前端将实现自定义的 WebSocket 逻辑、杂乱的 JSON 格式和特定于 LangGraph 的 UI 适配器。但要迁移到 CrewAI/Dify 等一切都必须进行调整这样工作量大大增加。第二、AG-UI 架构设计AG-UI 使用一个轻量级、事件驱动的协议来连接 AI Agents 和前端应用程序架构设计如图所示Front-end通过 AG-UI 进行通信的应用聊天或任何启用 AI 应用 AI Agent A前端可以直接连接的 AI Agent无需通过代理Secure Proxy一个中介代理安全地将前端的请求路由到多个 AI AgentsAI Agent B 和 C由代理服务管理的 AI Agents。第三、AG-UI 工作机制AG-UI 的核心工作机制非常简洁而优雅如下图所示客户端通过 POST 请求启动一次 AI 智能体会话随后建立一个 HTTP 流可通过 SSE/WebSocket 等传输协议用于实时监听事件每条事件都有类型和元信息MetadataAI 智能体持续将事件流式推送给 UIUI 端根据每条事件实时更新界面与此同时UI 也可反向发送事件、上下文信息供 AI 智能体使用。AG-UI 不再是单向的信息流而是一种真正的双向“心跳式”交互机制。AG-UI 就像 REST 是客户端到服务器请求的标准一样AG-UI 将实时 AI 智能体更新流式传输回 UI 的标准。从技术上讲AG-UI 使用服务器发送事件SSE将结构化 JSON 事件流式传输到前端。在大模型时代我们如何有效的去学习大模型现如今大模型岗位需求越来越大但是相关岗位人才难求薪资持续走高AI运营薪资平均值约18457元AI工程师薪资平均值约37336元大模型算法薪资平均值约39607元。掌握大模型技术你还能拥有更多可能性• 成为一名全栈大模型工程师包括PromptLangChainLoRA等技术开发、运营、产品等方向全栈工程• 能够拥有模型二次训练和微调能力带领大家完成智能对话、文生图等热门应用• 薪资上浮10%-20%覆盖更多高薪岗位这是一个高需求、高待遇的热门方向和领域• 更优质的项目可以为未来创新创业提供基石。《AI大模型从0到精通全套学习包》如果你想要提升自己的能力却又没有方向想学大模型技术去帮助就业和转行又不知道怎么开始那么这一套**《AI大模型零基础入门到实战全套学习大礼包》以及《大模型应用开发视频教程》**一定可以帮助到你限免0元1全套AI大模型应用开发视频教程包含深度学习、提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点2大模型入门到实战全套学习大礼包01大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通02大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。03AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。04大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。05大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。*这些资料真的有用吗*这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。06以上全套大模型资料如何领取用微信加上就会给你发无偿分享遇到扫码问题可以私信或评论区找我

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询