2026/1/9 14:38:23
网站建设
项目流程
建设网站建设工程信息泰州网1242低工程词,河北建设工程信息网官网 费用中项网,wordpress 含演示数据库,短视频推广的好处快到圣诞节了#xff0c;在美国#xff0c;我周围已经弥漫着放假的气息#xff0c;这几天正好有点时间#xff0c;把最近我一直在反复思考一个问题写一写。我最近越来越清晰地看到了一个趋势#xff1a;Infra 软件的主要使用者#xff0c;正在从开发者#xff08;人类在美国我周围已经弥漫着放假的气息这几天正好有点时间把最近我一直在反复思考一个问题写一写。我最近越来越清晰地看到了一个趋势Infra 软件的主要使用者正在从开发者人类迅速转向 AI Agent。例如数据库我有直接的体感在 TiDB Cloud 上已经观察到一个非常明确的信号我们每天新创建的 TiDB 集群里超过 90% 是由 AI Agent 直接创建的这已经是发生在生产环境里的现实。持续观察这些 Agent 是如何使用数据库、如何创建资源、如何读写数据、如何试错我学到了很多AI 使用方式和人类开发者非常不同也不断在挑战我们过去对「数据库应该如何被使用」的默认假设。也正因为如此我开始尝试从一个更偏本体论的角度重新思考当基础软件的核心用户不再是人而是 AI 时它应该具备哪些本质特征目前还只是一些阶段性的思考和结论未必成熟但我觉得值得先记录下来。01好的心智模型一定是稳定且可扩展的第一个要注意的是当使用者从人类变成 AI软件真正暴露给用户的不再是 UI 和 API而是它背后的心智模型。LLM 在训练过程中已经内化了大量隐含的假设和事实约定。其实写代码那么多年我越来越觉得计算机世界里最根本的东西在被发明出来之后其实就很少再发生本质性的变化了。尤其是越靠近底层的部分文件系统、操作系统、编程语言、进程模型、I/O 抽象。这些东西几十年下来形态在演进但核心思想、接口边界以及背后的假设变化并不大。当 AI 在训练过程中接触了海量代码人类屎山和工程实践之后它看到的其实并不是多彩多样的世界而是大量重复的模式重复的抽象、重复的轮子、重复的选择、重复的错误修复方式。这些重复一旦足够多就会沉淀为一种非常强的先验毕竟人类的本质其实是复读机 LOL所以我的一个结论是如果你希望设计的是「给 AI Agent 使用的软件」那你必须尽可能去贴合这些古老、却被一再验证的心智模型。这些模型并不新它们往往已经存在了几十年例如文件系统Bash ShellPythonSQL… 它们共同的特点是底层心智模型极其稳定上层胶水非常灵活。在这些心智模型之上人类构建了大量胶水代码我一直觉得真正的 IT 世界其实是由这些胶水组成的。很多看起来复杂的系统拆开之后本质上只是围绕着这些稳定抽象做组合和编排。从这个角度看设计给 Agent 使用的软件并不是去发明一套「全新的正确接口」这也是我不看好以 LangChain 为代表的一系列新的 Agent 开发框架的原因因为它太新了连程序员都懒得学更何况 AI 了而是要主动去顺应这些已经被训练进模型里的认知结构。换句话说Agent 不是在等待一个更聪明强大的系统而是更喜欢一个「它已经懂的系统」然后用比人类娴熟 1000 倍的效率写胶水代码扩展它。好的心智模型的特征是它一定是可扩展的。以文件系统为例这是我最近拿来反复思考的对象。无论是 Plan 9 的 9PFS还是 Linux 的 VFS本质上都做了一件非常重要的事情允许你在不破坏原有心智模型的前提下引入全新的实现。一个典型的例子是我最近折腾的试验性文件系统 agfs (https://github.com/c4pt0r/agfs)简单来说这是个可插拔的文件系统你可以实现各种各样稀奇古怪的能力只要满足文件系统的接口约束就行一个典型的例子vectorfs在 vectorfs 里文件依然是文件目录依然是目录echo、cat、ls、cp -r 这些操作一切照旧但在这个完全没有改变的心智模型之下vectorfs 的实现偷偷做了很多事cp 进这个 vectorfs 的文件夹中的文档被自动切分、生成向量、写入 TiDB 的向量索引grep 不再只是字符串匹配而变成了语义相似度搜索$ cp ./docs/* /vectorfs/docs #自动创建索引/上传S3/切分Chunk $ grep -r Whats TiDB? ./docs #在TiDB的向量索引上搜索 …Linux VFS 也是一样道理你可以实现一个完全不同语义、完全不同后端的用户态文件系统但只要它遵循 POSIX 约定就可以被挂载进现有系统立刻成为系统的一部分。对上层来说世界并没有改变对系统本身来说它却获得了持续演化的能力。这个在 AI 的时代尤其重要因为 AI Agent 写代码的速度是人类的几千倍也就是系统的演进速度是人类的几千倍如果没有稳定的约束很容易就飞了但是如果抽象是封闭的那么又没办法利用这个效率持续演化。在这个基础上其实还有一个很自然的推论软件生态到底还重不重要语法、协议、这些在 Agent 时代看起来很像旧时代八股文的程序员偏好的东西到底还值不值得纠结我的结论是重要也不重要。先说「不重要」的那一面。如果你的软件是建立在一个正确的心智模型之下那么它和主流方案之间很多时候真的只是语法差别。比如 MySQL 的语法和 Postgres 的语法比如 MongoDB 和其他一些 NoSQL 数据库之间的选择这些问题在人类开发者之间经常能吵得头破血流但从 Agent 的角度看其实意义不大。Agent 并没有「偏好」。它不会在乎语法优不优雅也不会在乎社区文化更不会纠结「哪一个更像正统」。只要接口是稳定的、语义是清楚的生态的是完备的网上能找到丰富的文档它就可以很快适配。这种偏好性的差异在 Agent 这边会被完全磨平几乎可以忽略。但这并不意味着生态完全不重要。它之所以「重要」并不是因为语法本身而是因为流行的软件往往对应着非常经典、非常稳固的心智模型广泛存在与 LLM 的训练语料中。不管是 MySQL 还是 Postgres本质上都是关系型数据库背后都是 SQL 这个模型。而 SQL 本身就是一个被反复验证过的、极其稳定的抽象知识从 pg 迁移到 mysql 或者反过来都是很容易的事情。所以在这个大的心智模型框架是正确的前提下你用 MySQL 还是 Postgres其实都能做 CRUD都能保证一致性也都能被 Agent 理解和使用。语法和生态的差别更像是方言问题而不是世界观的差别。所以对我来说真正重要的不是生态表层的差异而是你软件背后采用的模型是不是对的、是不是足够稳固。只要这个模型站得住脚Agent 会自动帮你跨过剩下的那些八股文似的品味之争。但是这也意味着一个悲伤的推论今天要在范式级别创新是更加困难了这也是在前面我不看好类似 Langchain 这样的编程框架的原因。02接口设计Agent 应该如何与你的系统对话如果说前面讨论的是「Agent 更容易理解什么样的系统」那接口设计关注的就是另一个问题Agent 应该如何与你的系统对话。在 Agent 作为用户的时代一个好的软件接口至少需要同时满足三个条件可以被自然语言描述可以被符号逻辑固化并且能够交付确定性的结果。其中如果第二条做得足够好第三条是自然完成的。先展开说一下「接口能够被自然语言描述」这一点我觉得这里的核心其实不是「要不要支持自然语言输入」而是你的软件接口本身是否适合用自然语言来表达意图。举一个很直观的例子像 Cloud Code 就主动放弃了传统的图形界面。原因并不复杂图形界面在很多时候其实是很难被自然语言准确描述的。你很难用一句话把「点哪里、拖到哪里、选中哪个状态」讲清楚而一旦脱离了视觉上下文这套接口对 Agent 来说就几乎是不可见的而编码绝大多数场景是在符号和语言打交道。这里背后还有一个更现实的原因我们今天使用的模型本质上仍然是语言模型。让模型去理解一段文字远比让它去理解一张图片或者一套隐含的交互状态要简单和可靠得多。所以对 Agent 友好的接口设计是你的系统能力本身就可以被自然语言清楚地描述出来。一个常见的反对意见是自然语言是有歧义的因此不适合作为严肃系统的接口。但站在 Agent 的视角这个问题可能需要重新思考。今天的 LLM已经非常擅长「猜出我们到底想做什么」。这并不是因为语言突然变得精确了而是因为模型在训练过程中已经见过了无数类似的意图表达、上下文约束和任务模式。成功率也许不是 100%但在绝大多数工程场景下它已经足够高。例如在最新的 Claude Code 中已经开始加入预测你下一步会干啥的功能我自己的使用经验是大多数情况下预测是很准确的。其实人类在真实世界里完成复杂工作的方式本身就是高度依赖自然语言的无论是和同事讨论方案还是在自己脑子里推演我们的思考过程就是一连串带有歧义、上下文依赖、不断自我修正的自然语言描述。从这个角度看自然语言并不是一种不精确的 tradeoff而是人类解决问题时的原生表示。LLM 模型所做的只是把这种原本发生在人类之间的推理过程规模化和数字化了。所以啊与其过分担心歧义不如承认一个现实当底层系统软件的心智模型是对的、接口的语义是稳定的、结果是可验证的时上层调用者Agent的少量歧义并不会成为系统性问题。Agent 可以通过上下文、反馈和反复尝试来消解它通常不会错得离谱而不需要一开始就被迫进入一套过度严格的形式体系。在数据库领域这一点其实最近已经有了很好的实践比如 Text-to-SQL。它未必百分之百准确但它证明了一件事如果你的系统抽象是对的那么它的能力天然就适合被语言描述。我甚至会觉得对于一个「设计正确」的系统来说完成一个意图大多数情况只有一种正确的方式这样的系统也是很自然语言友好的。就像我很喜欢的 Go 语言就遵循这个设计哲学。很多人不喜欢这一点但是我觉得这是一个相当有智慧的设计极大的减少了产生歧义的空间。不过也正因为自然语言输入可以是有歧义的系统内部反而必须尽早收敛到一个无歧义的中间表示。这正是我想说的第二点系统的符号逻辑能被固化。自然语言非常适合用来表达意图但它并不适合承担执行语义。一旦任务要被复用组合和自动化验证就必须被压缩成一种明确、稳定、可推理的形式。这也是为什么几乎所有成功的系统都会在「人类可读的输入」和「机器可执行的行为」之间放置一个中间层例子仍然是 SQL脚本代码配置文件。。。它们的共同点是一旦生成就不再依赖上下文解释。在 Agent 作为使用者的场景下这个中间表示的意义被进一步放大了。Agent 可以容忍输入阶段的模糊通过猜测和多轮修正与人类来逼近意图。因此一个 Agent 友好的系统接口设计要明确地回答一个问题「在什么时刻歧义被彻底消除」当这个时刻被清晰地定义出来系统就获得了一种新的能力它可以将一次模糊的意图冻结为一个确定的结构可存储、可审计、可复用也可以被另一个 Agent 在未来重新加载并继续执行。自然语言负责探索空间符号负责收敛空间。而只有在完成这一步之后「确定性的结果」才成为可能。那什么样的逻辑符号描述是好的我个人的一个评价标准是这个中间逻辑符号描述表示是否可以用尽可能少的 Token实现最多的可能性。而我认为目前2025 年底最好的逻辑符号描述就是代码即使对于非编程 Agent 来说也是。这并不是一个「节省成本」的问题而是一个认知密度的问题。我举个例子我最近想背单词于是找了一份 10000 个单词的词表但是这个词表只有英文单词我希望用 LLM 给我生成一份有中英释义的版本。最土的办法就是直接把整个词表发给 LLM然后说给每一行加上中文释义最后让 LLM 输出整个带中英释义的词表。但这个方式的问题非常明显它对 Token 的使用极其低效。一个更好的方式其实是把这个需求先固化成一段逻辑也就是一段 Python 脚本:def enrich_vocab(src, dst, llm_translate): with open(src) as f, open(dst, w) as out: for word in map(str.strip, f): if not word: continue zh llm_translate(word) out.write(f{word}\t{zh}\n)一旦这个逻辑被表达成代码或者接近代码的形式你就不再需要把所有数据都塞进上下文里。模型只需要理解一次「代码规则」然后把它应用到任意规模的数据上Agent 只用极少的符号描述了一个可以被无限重复执行的过程。这就是为什么我坚持编程其实是最好的 Meta Tool 的原因我不喜欢疯狂堆 MCP Tool 的风气。03AI Infra’s Infra 需要具备哪些必要特征AI Infra’s Infra, 我承认这个标题有些拗口但是你能理解这个意思就好。当 AI Agent 成为 Infra 的主要使用者之后很多我们以前觉得理所当然的设计其实都开始不太成立了。现在 AI Infra 的用户已经不是那种会被认真规划、长期维护的「人类开发者」了而是 Agent它们会非常快地创建资源、试一把不行就丢掉再换个方式重来。而且这种尝试的速度和效率往往是人类的成千上万倍这也直接改变了 Infra 应该长成什么样。日抛型代码先说一个很明显的点Agent 产出的工作负载本质上就是日抛型的。能不能开箱即用、能不能随时创建、失败了是不是可以毫无负担地扔掉这些都比「长期稳定运行」重要得多。哪怕成功了很多时候也只是阶段性结果并不一定会被保留下来。这意味着Infra 的设计前提已经不能再是假设「一个集群很宝贵」。你必须假设实例本身是便宜的、生命周期很短、而且数量会涨得非常快。我在观察 AI Agent 使用 TiDB 的时候有一个特别直观的感受它们很喜欢同时拉起多个 branch 并行干活只要有一个分支跑通了其他的基本就可以直接放弃了。Agent 写的 SQL 也好生成的代码也好看起来往往都挺「胶水」的不追求优雅但只要能跑、能验证想法就完全可以接受。顺着这个思路其实还有一个很自然的推论。由于 AI Agent 的出现写代码的门槛已经被拉得非常低了低到什么程度呢低到「写代码」这件事本身已经不再是稀缺能力了。很多在过去需要工程师投入大量时间才能完成的东西现在对 Agent 来说只是一次生成成本的问题。这件事意味着什么我觉得一个很重要的变化是大量过去被忽略、被认为「不值得做」的需求其实都突然变得可行了。不管是某个很小的功能、一次性的工具还是只服务于极少数用户的场景只要 Agent 能快速写、快速跑、快速验证这些需求就不再需要被「筛选」掉。换句话说代码的生产能力被极大地释放了最终被服务的对象也不再只是那一小撮「值得投入工程成本」的用户而是更广泛、更长尾的真实需求于是我预计对于基础软件的可靠性和总租户数量会爆炸性增长但是对于服务连续性和可靠性的需求其实并没有下降这也是为什么我认为 Supabase 之类因为流量少而 Pause 实例控制成本的方式是不可取的再小的在线服务也是在线服务。不过这一点我更想放到后面商业模式变化那一节里单独展开去说。因为当供给侧的成本几乎趋近于零时整个价值分配方式其实都会随之发生变化。极致的低成本这里说的「极致的成本」并不是简单意义上的「便宜」而是指在满足大量长尾需求的前提下系统的成本还能不能撑得住。前面提到AI 把很多原本「不值得做」的需求都变得可行了。但这些需求有一个很典型的特点访问频率非常低。可能一天就一两个请求甚至几天才会被碰一次但它们确实存在而且确实有人或者说有 Agent在用。如果你还沿用传统的模型比如一个任务对应一个真实的 Infra 环境或者像 Postgres 那样一个 Agent 任务背后就是一个 pg 进程你可以想象一下你的用户规模起来以后你要维护上百万个这样的实例光是管理这些进程、心跳、资源、状态本身的复杂性就已经是一个不可承受的开销了更不用说机器成本。所以在多租户和成本这个问题上我觉得有一个结论其实是绕不过去的你不可能真的为每一个需求、每一个 Agent提供一个真实的物理实例。你必须引入某种形式的虚拟化虚拟数据库实例、虚拟分支、虚拟环境。它们在资源层面是高度共享的但在语义层面又必须是隔离的。真正难设计的地方其实就在这里在实现极致资源复用的同时还要在交互层面让 Agent 感觉这是我自己的独立环境我可以随便折腾。一个典型的例子来自于 Manus 1.5他们背后的 Agent 其实在使用 TiDB Cloud 来作为数据库方案于是这些 Agent 它可以建表、删表、跑实验、写垃圾 SQL而不会影响别人也不用担心副作用。TiDB X 其实就是为了这个场景设计的虽然几年前我们在设计的时候没有预想今天 AI Agent 的一切只能说有点歪打正着的幸运。全栈的 WebappManus 1.5比 FrontendLovable要更难做主要的难点就是成本。如果你做不到这一点Agent 就会被迫回到「谨慎使用资源」的模式而一旦 Agent 需要开始「省着用」整个并行探索、快速试错灵活性的优势就会被彻底抹掉。从这个角度看这种「看起来像独占实际上是虚拟化」的设计并不是一个优化项而是想要构建一个可规模化、超低成本 Agent Infra 的前提条件。单位时间能撬动的算力还有一个点我觉得现在很多人讨论 AI Agent Infra 的时候很少讨论单位时间单位任务你到底能撬动多少算力这个指标非常重要因为这是 Agent 要完成复杂任务必须关注的。举个简单的例子。现在不管是 ChatGPT还是你在自己机器上跑的 Coding Agent大多数交互模式都是一样的你问一句话它把这句话发到某个 API 背后可能是 OpenAI也可能是 Anthropic在他们数据中心的某一块 GPU 上做推理然后再把答案返回给你。你再问下一句再来一轮。这意味着从系统层面看你单位时间能调动的算力资源本质上就被锁定在「单次请求对应的一块 GPU」上。它当然很强但它的工作方式更像是「串行对话」而不是「并行干活」。我们从 2022 年 ChatGPT 开始就习惯了这样单机的基于人和机器一来一回对话的交互模式而现实世界很多复杂任务是需要依靠大规模团队分工合作的。想象一个最简单的场景比如我想把今年 NeurIPS 的论文快速读一遍可能是几百篇然后挑出有意思的给我汇报。传统的 Agent 逻辑大概率就是一篇一篇读最多做一点缓存或者总结模板本质上还是顺序推进。而如果换一个思路把它当成一个「分布式 Agent 团队」的问题事情会完全不同。你可以把任务拆成几百个小块直接分发给 100 个、1000 个 Agent 并行去读。它们读完以后各自把摘要、关键结论、疑点和引用发回来再由一个汇总的 Agent 去做二次归纳、交叉验证、结构化输出。你可以把它理解成一种「wide research」式的工作流这是最简单的一种分布式模式。在这种模式下你单位时间对一个任务能撬动的算力就不再是一块 GPU而是一个可以按需扩展的规模刚才那个例子里可能就是 100、1000甚至更多。而这恰恰会反过来提出一个非常具体的 Infra 问题 如果 Agent 会天然倾向于这种并行探索那你的系统是不是能让它低成本快速地开 1000 个工位能不能稳定地分发任务、收敛结果、去重、纠错失败是不是可控、可回放成本是不是实时可见这里面可能是一个 K8s 和 Hadoop 级别的机会。04在 Agent 时代过去不太经济的商业模式变得合理了在商业模式这一块我其实最想强调的第一个变化是在 Agent 时代很多过去不太经济的商业模式突然变得合理了。这个问题我们做基础软件、做数据库的人其实体感非常强。过去只要一提「定制化需求」基本就是一个 red flag: 我的人是最贵的为了一个小客户、一个没有普适性的场景去投入研发是不行的。举一个更容易理解的例子假设有一个没有任何计算机背景的小超市老板他其实一直都很想做一个库存管理系统或者一个小小的网店能帮他管商品、管订单。但现实是过去他很难一下子拿出十几二十万去雇一个开发团队把这些东西按他的想法做出来更别说后续的运维。而从传统软件公司的角度看这个需求同样是不成立的我不可能为了你一个小超市去投入一个团队更何况即便做出来了你的付费能力本身也是有限的。所以在过去需求其实一直都在但它们被「经济性」挡在了门外。不是没有人需要而是没有一种合理的方式用足够低的成本去满足这些长尾的需求。我觉得 Agent 改变的恰恰是这一点。AI Agent 第一次把「计算」这件事真正意义上地民主化了。写代码、试想法、做原型这些过去必须由专业工程师完成的事情现在可以被 Agent 以极低的边际成本实现。很多以前算不过账的事情并不是需求消失了而是成本终于降到足够低了。所以我现在越来越觉得一个真正成功的 Agent 公司最终不应该是一家「卖 token 的公司」。仔细想一想就会发现单纯卖 token 这件事本身是有结构性问题的。随着用户越来越多、任务越来越复杂模型调用次数和上下文长度都会持续增长而 token 的边际成本并不会自动下降哪怕 Token 单价在变得越来越便宜也好只要你卖得越多成本也随之增长而且别的竞争对手也会降价这在商业上其实是非常脆弱的。从这个角度看很多现在靠大量消耗算力来驱动的 Agent 公司本质上商业模型是站不稳的。除非能像前面说的那样把「每一次都要重新推理」的事情转化为「一次构建、反复使用」的服务否则规模一上来成本迟早会反噬增长。于是真正能跑通的模式或一家成功的 AI Agent 公司反而更像是一家把目标用户群体放大了 100 倍、1000 倍的云服务公司。关键不在于 token成本而在于你能不能把原本持续燃烧的 token 消耗逐步沉淀成一些「boring」的在线服务或者更进一步沉淀成静态、确定性、可以被复用的系统能力。一旦做到这一点边际成本就会被极大地摊薄甚至接近于零。有意思的是这并不意味着你最终提供的东西是「全新的形态」。云服务还是云服务数据库还是数据库很多底层能力本身都很传统。真正发生变化的是使用这些服务的用户群体被 Agent 放大了几个数量级。所以说到这里我还是想再提一次 Manus 1.5Full stack webapp 这个例子不好意思又是这个 case最近他们正好官宣了 ARR 过 100M USD, 还是比较应景的。一方面它确实是我们 TiDB Cloud 的客户但更重要的是我觉得它背后的商业模式设计真的非常有意思也非常有代表性。它并不是简单地在卖算力、卖 token或者靠一次次推理去换收入而是在努力把 Agent 的「单次关键推理成本」转化成有规模化效应的传统云计算生意。05结尾写到这里也快要结尾了其实说来说去我的想法也挺简单的Agent 时代来了很多我们作为程序员习以为常的前提确实需要重新想一想了。代码不再稀缺软件也不再是需要精心维护的东西系统被创建、试用、丢弃都会变得非常自然。这并不是说工程不重要了恰恰相反。只是工程的重点变了不再是把某一个系统打磨到极致而是去设计那些能被 AI 大规模使用、反复试错、低成本运行的基础能力。放下对「我是不是在写代码」「我是不是在控制系统」的执念反而会更容易看清接下来要做什么。很多真正重要的事情其实都回到了老问题上。世界已经切换到另一个使用方式了没必要太抗拒。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】