本页面提供了部署和运行Local Deep Researcher系统的全面指南。它涵盖了可用的部署选项、配置要求以及与LLM提供商和搜索API等外部服务的连接。有关系统架构的信息,请参阅系统架构;有关详细配置选项,请参阅配置。
Local Deep Researcher可以通过两种主要方法进行部署
这两种部署选项都支持与本地托管的LLM提供商(Ollama或LMStudio)以及各种搜索API集成。
来源: README.md77-156 README.md187-214
部署Local Deep Researcher最直接的方法是使用LangGraph Studio在本地开发环境中直接运行它,LangGraph Studio提供了一个用于与研究过程交互和可视化研究过程的Web界面。
部署前,请确保您已具备
编辑.env文件以配置您的LLM提供商、搜索API和其他设置。
适用于Mac/Linux
适用于Windows
适用于Mac/Linux(使用uv包管理器)
适用于Windows
服务器运行后,通过以下地址访问Studio UI
https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
来源: README.md77-156
Local Deep Researcher可以使用Docker作为容器化应用程序部署,这简化了依赖管理并提供了统一的运行时环境。
注意:host.docker.internal DNS名称允许容器访问在主机上运行的服务。如果您的LLM提供商在其他地方运行,请相应调整URL。
通过以下地址访问Studio UI
https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024
来源: README.md187-214 Dockerfile1-39
本节将系统组件映射到其部署结构,展示了代码实体如何与运行时组件关联。
来源: README.md16-24 README.md187-214 Dockerfile1-39
环境变量对于配置Local Deep Researcher的部署至关重要。这些变量控制使用哪个LLM提供商、查询哪个搜索API以及系统的其他行为方面。
| 环境变量 | 描述 | 默认值 | 示例 |
|---|---|---|---|
LLM_PROVIDER | 指定要使用的LLM提供商 | ollama | ollama 或 lmstudio |
LOCAL_LLM | 与提供商一起使用的具体模型 | llama3.2 | deepseek-r1:8b |
OLLAMA_BASE_URL | Ollama服务的URL | http://:11434 | http://host.docker.internal:11434/ |
LMSTUDIO_BASE_URL | LMStudio服务的URL | http://:1234/v1 | http://host.docker.internal:1234/v1 |
SEARCH_API | 用于网络研究的搜索API | duckduckgo | tavily、perplexity 或 searxng |
TAVILY_API_KEY | Tavily搜索的API密钥 | - | tvly-yourapikey |
PERPLEXITY_API_KEY | Perplexity搜索的API密钥 | - | pplx-yourapikey |
MAX_WEB_RESEARCH_LOOPS | 研究迭代次数 | 3 | 5 |
FETCH_FULL_PAGE | 是否抓取完整页面内容 | false | true 或 false |
系统采用分层配置方法,优先级顺序如下
来源: README.md24-75 README.md129-135
Local Deep Researcher依赖于两种主要的外部服务
连接到Ollama
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://:11434 # or URL to remote Ollama service
LOCAL_LLM=llama3.2 # or your preferred model
连接到LMStudio
LLM_PROVIDER=lmstudio
LMSTUDIO_BASE_URL=http://:1234/v1 # or URL to LMStudio server
LOCAL_LLM=qwen_qwq-32b # exact model name as shown in LMStudio
系统支持多种搜索提供商
TAVILY_API_KEYPERPLEXITY_API_KEY来源: README.md29-75 README.md157-167
部署Local Deep Researcher后,监控和故障排除对于确保系统正常运行至关重要。
主要的监控界面是LangGraph Studio UI,它提供了
| 问题 | 可能原因 | 解决方案 |
|---|---|---|
| 无法连接到LLM提供商 | URL不正确或LLM提供商未运行 | 验证提供商是否正在运行,并检查环境变量中的URL |
| 浏览器安全警告 | 混合内容(HTTPS/HTTP) | 使用Firefox或调整浏览器安全设置 |
| 无搜索结果 | API密钥或搜索API不正确 | 验证API密钥并检查搜索API配置 |
| LangGraph Studio UI未加载 | 广告拦截扩展 | 禁用广告拦截扩展或使用其他浏览器 |
| Docker容器无法连接到Ollama | 网络配置 | 使用host.docker.internal或正确的网络配置 |
访问LangGraph Studio UI时
来源: README.md117-128 README.md147-156 README.md209-214
Local Deep Researcher旨在适应各种部署场景。
该系统可以通过以下方式与现有工作流集成
http://:2024)对于自动化部署,请考虑
来源: README.md178-180
有关特定Docker部署步骤和选项的更多信息,请参阅Docker部署。
刷新此 Wiki
最后索引时间2025年4月17日(5e5362)