网站首页标题怎么设置网站建设发展历程ppt
2025/12/31 18:57:39 网站建设 项目流程
网站首页标题怎么设置,网站建设发展历程ppt,舆情网站入口网址大全名字,做软装找图片的网站本文详细解析了AI Agent系统的定义、构建难点、框架选型及6种架构设计模式。AI Agent系统通过大语言模型与工具的交替调用形成智能循环#xff0c;构建难点在于确保LLM上下文准确性。文章从工作流与AI Agent、可预测性、门槛上限等多维度分析了框架选型#xff0c;并介绍了路…本文详细解析了AI Agent系统的定义、构建难点、框架选型及6种架构设计模式。AI Agent系统通过大语言模型与工具的交替调用形成智能循环构建难点在于确保LLM上下文准确性。文章从工作流与AI Agent、可预测性、门槛上限等多维度分析了框架选型并介绍了路由分发、代理、缓存微调、目标导向、智能体组合和双重安全等6种架构模式为企业级AI Agent应用提供了全面指导。▼最近直播超级干预约保你有收获本文从以下4个方面详细剖析AI Agent 系统到底是什么构建 AI Agent 系统的难点是什么AI Agent 框架种类和选型AI Agent 6种架构设计模式—1—AI Agent 系统到底是什么可以将智能 AI Agent 系统简单地理解为一个接收用户输入然后交替调用以下两个组件的系统一个大语言模型我们称之为“推理模型”根据输入、可能附加的自动检索上下文和历史对话来决定采取什么行动。推理模型将输出a推理下一步应该采取什么行动的文本以及b指定行动的结构化信息哪个行动行动输入参数的值等。输出的“行动”也可能是没有剩余行动可采取。工具这些工具不一定与大语言模型有关可以执行推理模型指定的各种行动以生成将被纳入下一次调用推理模型的信息的结果。推理模型本质上是在提示词中选择系统可以访问的工具和行动集。这就创建了一个基本的智能 AI Agent 系统循环一个基本的智能循环是根据这个智能循环如何向用户展示智能 AI Agent 系统有不同的风格这些大语言模型不是作为纯粹的内容生成器而是更多地作为工具选择推理组件的功能。“推理”这个词也被过度使用了——在智能领域它有一个非常特定的含义。它意味着使用大语言模型来选择下一步应该采取什么行动即应该调用哪个工具以及使用什么参数。“推理”这个词也被像 OpenAI 的 o1 这样的模型使用过在推理中它意味着完全不同的事情。对于这些大语言模型“推理”指的是思维链提示词。大模型首先输出中间步骤然后尝试提供查询的最终响应试图模仿人类如何解决问题而不是依赖纯粹的模式匹配算法。“智能”的另一个误用是所谓的“AI 工作流程”。比如有人可能会构建一个自动化或工作流程该工作流程接收原始文档使用大语言模型进行对象识别然后清理提取的元素然后使用另一个大语言模型总结元素然后将总结添加到数据库中。有多个大语言模型调用但大语言模型不是作为工具调用推理引擎使用的。我们提前指定应该调用哪些大语言模型以及如何调用而不是让大语言模型实时决定应该调用哪些工具。这只是自动化不是智能。超级简单的智能与非智能示例假设你向 AI Agent 系统请求制作披萨的食谱。在非智能世界中你只需将该提示词传递给大语言模型并让它生成结果。在智能世界中AI Agent 可能拥有的工具之一是从食谱书中检索食谱其中一个食谱是披萨。在这个智能世界中系统将使用大语言模型推理模型来确定鉴于提示词我们应该使用“食谱工具”并输入“披萨”来检索正确的食谱。然后调用该工具输出该食谱的文本然后推理模型将使用此工具调用的输出来确定没有更多的工作要做并完成其“循环”。下图显示非智能系统与智能 AI Agent 系统流程的区别。—2—构建 AI Agent 系统的难点是什么我想大多数人都会同意构建 AI Agent 是困难的。或者更准确地说–构建 AI Agent 的原型很容易但可靠的和企业级的 AI Agent能够支持关键业务应用的 AI Agent这是很难的棘手的部分正是这个–使其可靠。你可以轻松制作一个看起来不错的 Demo 演示。但你能用它来支持关键业务应用吗没有大量工程架构设计和优化工作是不行的。几个月前LangChain 对 AI Agent 构建者做了一项调查问他们“将更多 AI Agent 投入生产使用的最大限制是什么”远远超过其他答案的第一位回答是“性能质量”——让这些 AI Agent 正常工作仍然非常困难。第一、是什么导致 AI Agent 有时表现不佳LLM 搞砸了。第二、为什么 LLM 会搞砸两个原因1模型不够好2传递给模型的上下文错误或不完整。从我们的经验来看通常是第2种情况。是什么导致了这种情况系统提示词不完整或简短用户输入模糊无法访问正确的工具工具描述不佳没有传入正确的上下文工具响应格式不佳构建可靠的 AI Agent 系统的难点是确保在每一步中LLM 都有合适的上下文。这包括控制输入到 LLM 的确切内容以及运行适当的步骤来生成相关内容。在我们讨论 AI Agent 框架时记住这一点很有帮助。任何使控制确切传入 LLM 的内容变得更困难的框架只是在给你添麻烦。—3—AI Agent 框架种类和选型AI Agent 框架在几个维度上有所不同。理解这些维度是正确选型 AI Agent 框架的关键。第一、工作流与 AI Agent大多数框架包含更高层次的 AI Agent 抽象。一些框架包含了常见工作流的某种抽象。LangGraph 是一个用于构建 AI Agent 系统的低层次编排框架。LangGraph 支持工作流、AI Agent 以及两者之间的任何东西。我们认为这是至关重要的。如上所述大多数生产中的 AI Agent 系统是工作流和 AI Agent 的组合。一个生产就绪的框架需要同时支持两者。让我们记住构建可靠 AI Agent 的难点–确保 LLM 有正确的上下文。工作流有用的部分原因是它们使向 LLM 传递正确上下文变得容易。你决定数据流动的确切方式。当你思考要在 AI 应用中使用“工作流”还是“AI Agent”需要考虑两件事可预测性与代理性低门槛高上限第二、可预测性与代理性随着你的系统变得更加具有代理性它将变得不那么可预测。有时你希望或需要你的系统是可预测的——为了用户信任、监管原因或其他原因。可靠性并不完全与可预测性一致但在实践中它们可以密切相关。你希望在这条曲线上的位置相当具体于你的 AI 应用程序。LangGraph 可以用于构建位于这条曲线任何位置的应用程序允许你移动到你想要的位置。第三、低门槛高上限当思考框架时考虑它们的门槛和上限是有帮助的低门槛一个低门槛框架对初学者友好易于上手。高门槛一个有高门槛的框架意味着它有陡峭的学习曲线需要相当多的知识或专业知识才能有效地开始使用。低上限一个有低上限的框架意味着它在能做的事情上有局限性你会很快超出它的能力。高上限一个高上限框架为高级用例提供广泛的能力和灵活性它会随着你一起成长。工作流框架提供了高上限但也带来了高门槛–你需要自己编写大量的代理逻辑。AI Agent 框架低门槛但上限低–易于上手但对于非平凡的用例则不够用。LangGraph 旨在具有易于上手内置的 AI Agent 抽象使上手变得容易和高上限底层功能以实现高级用例的特点。第四、声明式与非声明式声明式框架有其好处。也有缺点。这是程序员之间看似无休止的辩论每个人都有自己的偏好。当人们说非声明式时他们通常暗示命令式是替代品。大多数人会将 LangGraph 描述为一个声明式框架。这只部分正确。首先尽管节点和边之间的连接是以声明式的方式完成的但实际的节点和边无非是 Python 或 TypeScript 函数。因此LangGraph 是一种介于声明式和命令式之间的混合体。其次实际上支持除了推荐的声明式 API 之外的其他 API。具体来说支持函数式和事件驱动 API。虽然我们认为声明式 API 是一个有用的思维模型但我们认识到它并不适合每个人。关于 LangGraph 的一个常见评论是它类似于 Tensorflow一个声明式深度学习框架而像 Agents SDK 这样的框架则类似于 Pytorch一个命令式深度学习框架。这是不正确的。像 Agents SDK以及原始 LangChain、CrewAI 等这样的框架既不是声明式的也不是命令式的——它们只是抽象。它们有一个 AI Agent 抽象一个 Python 类它包含运行 AI Agent 的大量内部逻辑。它们不是真正的编排框架。它们只是抽象。第五、AI Agent 抽象大多数 AI Agent 框架包含一个 AI Agent 抽象。它们通常从一个涉及提示词、模型和工具的类开始。然后它们添加一些更多的参数……然后更多……然后甚至更多。最终你得到了一长串参数这些参数控制着多种行为所有这些都抽象在一个类后面。如果你想查看发生了什么或者改变逻辑你必须进入类并修改源代码。这些抽象最终使得很难理解或控制在所有步骤中到底有什么进入 LLM。这很重要–拥有这种控制对于构建可靠 AI Agent 至关重要如上所述。这是 AI Agent 抽象的危险。我们在这方面吃了不少苦头。这是原始 LangChain 链和 AI Agent 的问题。它们提供了阻碍的抽象。两年前的一个原始抽象是一个 AI Agent 类它接受模型、提示词和工具。这不是一个新概念。当时它没有提供足够的控制现在也没有。说清楚这些 AI Agent 抽象确实有一些价值。它们使上手变得容易。但我不认为这些 AI Agent 抽象足以构建可靠的 AI Agent也许永远不够。我们认为最好将这些 AI Agent 抽象视为 Keras。它们提供了更高层次的抽象以便轻松上手。但至关重要的是要确保它们是建立在更低层次的框架之上的这样你就不会超出它的能力。这就是为什么在 LangGraph 之上构建了 AI Agent 抽象。这提供了一种轻松上手 AI Agent 的方式但如果你需要逃脱到底层 LangGraph你可以轻松做到。第六、多 AI Agent通常AI Agent 系统不会只包含一个 AI Agent它们会包含多个。OpenAI 在他们的报告中说对于许多复杂的工作流将提示词和工具分配到多个 AI Agent 中可以提高性能和可扩展性。当你的 AI Agent 无法遵循复杂指令或始终选择错误的工具时你可能需要进一步分解你的系统并引入更多的不同 AI Agent。多 AI Agent 系统的关键部分是它们如何通信。同样构建 AI Agent 的难点是将正确的上下文传递给 LLM。这些 AI Agent 之间的通信很重要。有很多方法可以做到这一点交接是一种方式。这是 Agents SDK 的一个 AI Agent 抽象。但这些 AI Agent 之间通信的最佳方式有时可能是工作流。这种工作流和 AI Agent 的混合通常能提供最佳的可靠性。同样 AI Agent 系统不仅仅是工作流或者只是一个 AI Agent。它们可以是而且通常是两者的组合。总之以上 AI Agent 的6个种类在实际的业务场景中可以自由组合正如 Anthropic 在他们的博客文章中指出的组合和定制这些模式这些构建块并不是规定性的。它们是开发者可以根据不同用例塑造和组合的常见模式。—4—AI Agent 6种架构设计模式根据我多年的架构设计经验整理总结了一些针对AI Agent 6种架构模式以下详细剖析。第一、 AI Agent 路由分发架构模式当用户输入一个 Prompt 查询时该查询会被发送到路由转发模块而路由转发模块则扮演着对输入 Prompt 进行分类的角色。如果 Prompt 查询是可以识别的那么它会被路由到小模型进行处理这通常是一个更准确、响应更快且成本更低的操作。然而如果 Prompt 查询无法被识别那么它将由大模型来处理。尽管大模型的运行成本较高但它能够成功返回更多种类型查询的答案。通过这种方式大模型应用产品可以在成本、性能和用户体验之间实现平衡。第二、AI Agent 代理架构模式在任何一个生态系统中都会有多个针对特定任务领域的专家并行工作以处理特定类型的查询然后将这些响应整合在一起形成一个全面的答案。这样的架构模式非常适合复杂的问题解决场景在这种场景中问题的不同方面需要不同的专业知识就像一个由专家组成的小组每个专家负责处理更大问题的一个方面。更大的模型比如Qwen3-235B负责理解上下文并将其分解为特定的任务或信息请求这些任务或信息请求被传递给更小的代理模型。这些代理模型可能是较小模型它们已经接受过特定任务的训练或者是具有特定功能的通用模型比如BERT、Qwen3-7B、上下文提示和函数调用。第三、基于缓存的微调 AI Agent 架构模式我们将缓存和微调引入到 AI Agent 应用架构中可以解决成本高、推理速度慢以及幻觉等组合问题。当我们累积了足够的数据后微调层将启动利用早期交互的反馈进一步完善一个更为专业化的私有大模型。专有私有大模型不仅简化了操作流程也使专业知识更好地适应特定任务使其在需要高度精确性和适应性的环境中比如客户服务或个性化内容创建表现得更为高效。对于刚入门的用户可以选择使用预先构建的服务比如GPTCache或者使用常见的缓存数据库Redis、Cassandra、Memcached 来运行自己的服务。第四、面向目标的 AI Agent 架构模式对于用户的 Prompt 提示词AI Agent 会基于大模型先做规划Planning拆解成若干子任务然后对每个子任务分别执行Action同时对每一步的执行结果进行观测Observation如果观测结果合格就直接返回给用户最终答案如果观测结果不合格或者执行出错会重新进行规划Replanning。这种面向目标的 AI Agent 架构模式非常常见也是 AGI 大模型时代每一个程序员同学都需要掌握的架构设计模式。第五、AI Agent 智能体组合架构模式该架构设计模式强调了灵活性通过模块化 AI 系统能自我重新配置以优化任务性能。这就像一个多功能工具可以根据需求选择和激活不同的功能模块对于需要为各种客户需求或产品需求定制解决方案的企业来说这是非常有效的。我们可以通过使用各种自主代理框架和体系结构来开发每个 AI Agent比如CrewAI、Langchain、LLamaIndex、Microsoft Autogen 和 superAGI等。通过组合不同的模块一个 AI Agent 可以专注于预测一个处理预约查询一个专注于生成消息一个 AI Agent 来更新数据库。将来随着专业 AI 公司提供的特定服务的增多我们可以将一个模块替换为外部或第三方服务以处理特定的任务或领域的问题。第六、AI Agent 双重安全架构设计模式围绕大模型的核心安全性至少包含两个关键组件一是用户组件我们将其称为用户 Proxy 代理二是防火墙它为大模型提供了保护层。用户 Proxy 代理在查询发出和返回的过程中对用户的 Prompt 查询进行拦截。该代理负责清除个人身份信息和知识产权信息记录查询的内容并优化成本。防火墙则保护大模型及其所使用的基础设施。尽管我们对人们如何操纵大模型以揭示其潜在的训练数据、潜在功能以及当今恶意行为知之甚少但我们知道这些强大的大模型是脆弱的。在安全性相关的技术栈中可能还存在其他安全层但对于用户的查询路径来说Proxy 代理和防火墙是最关键的。在大模型时代我们如何有效的去学习大模型现如今大模型岗位需求越来越大但是相关岗位人才难求薪资持续走高AI运营薪资平均值约18457元AI工程师薪资平均值约37336元大模型算法薪资平均值约39607元。掌握大模型技术你还能拥有更多可能性• 成为一名全栈大模型工程师包括PromptLangChainLoRA等技术开发、运营、产品等方向全栈工程• 能够拥有模型二次训练和微调能力带领大家完成智能对话、文生图等热门应用• 薪资上浮10%-20%覆盖更多高薪岗位这是一个高需求、高待遇的热门方向和领域• 更优质的项目可以为未来创新创业提供基石。《AI大模型从0到精通全套学习包》如果你想要提升自己的能力却又没有方向想学大模型技术去帮助就业和转行又不知道怎么开始那么这一套**《AI大模型零基础入门到实战全套学习大礼包》以及《大模型应用开发视频教程》**一定可以帮助到你限免0元1全套AI大模型应用开发视频教程包含深度学习、提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点2大模型入门到实战全套学习大礼包01大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通02大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。03AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。04大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。05大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。*这些资料真的有用吗*这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。06以上全套大模型资料如何领取用微信加上就会给你发无偿分享遇到扫码问题可以私信或评论区找我

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询