2026/1/17 6:49:05
网站建设
项目流程
app制作过程和网站一样吗,华久网站建设,八桂职教,网站建设都需要哪些材料1. 前言痛点#xff1a; ChatGPT要梯子#xff0c;API太贵#xff0c;公司数据不敢上传云端。解决方案#xff1a; 使用国产之光DeepSeek配合Ollama进行本地部署#xff0c;完全免费且离线可用。本文目标#xff1a; 手把手教你搭建一个能读懂你PDF文档的AI助手。2. 环境…1. 前言痛点ChatGPT要梯子API太贵公司数据不敢上传云端。解决方案使用国产之光DeepSeek配合Ollama进行本地部署完全免费且离线可用。本文目标手把手教你搭建一个能读懂你PDF文档的AI助手。2. 环境准备Ollama安装给出Windows/Mac/Linux的安装命令强调简单。模型拉取ollama run deepseek-coder:33b # 或者 deepseek-llm*(注提醒读者根据显存选择模型大小)*3. 核心代码实战Python LangChain依赖安装pip install langchain chromadb ollama向量化处理Embeddings解释为什么需要向量化让计算机听懂人话。代码示例关键部分from langchain_community.llms import Ollama from langchain.document_loaders import PyPDFLoader from langchain.vectorstores import Chroma from langchain.embeddings import HuggingFaceEmbeddings # 1. 加载本地私有数据 loader PyPDFLoader(我的绝密文档.pdf) pages loader.load_and_split() # 2. 向量化并存入数据库 vector_db Chroma.from_documents( documentspages, embeddingHuggingFaceEmbeddings(model_namemoka-ai/m3e-base), # 推荐中文友好的Embedding persist_directory./db ) # 3. 召唤DeepSeek回答问题 llm Ollama(modeldeepseek-llm) retriever vector_db.as_retriever()4. 避坑指南显存溢出怎么办中文回答乱码怎么调DeepSeek与其他模型如Llama 3的对比优劣。5. 结语与福利互动“由于篇幅限制下一篇讲如何给这个系统套个Web UI壳子想看的在评论区扣1”拉票“正在参加CSDN 2025博客之星如果本文对你有用请投我一票”