本指南解释了如何使用 Local Deep Researcher,它是一个完全本地化的网络研究助手,利用本地 LLM(通过 Ollama 或 LMStudio 托管)对用户提供的主题进行自动化、迭代的网络研究。本文档涵盖了设置、配置、运行研究会话、监控进度和解释结果。有关部署说明,请参阅部署。
在使用 Local Deep Researcher 之前,请确保您已具备
.env文件或 LangGraph Studio UI 配置下图展示了使用 Local Deep Researcher 时的典型用户工作流程
https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024)处打开 LangGraph Studio UIhttps://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024系统提供三种配置研究会话的方式,按优先级排序
关键配置参数包括
| 参数 | 描述 | 默认 | 示例值 |
|---|---|---|---|
LLM_PROVIDER | 要使用的 LLM 提供程序 | ollama | ollama, lmstudio |
LOCAL_LLM | 要使用的模型名称 | llama3.2 | deepseek-r1:8b, qwen_qwq-32b |
SEARCH_API | 搜索提供程序 | duckduckgo | duckduckgo, tavily, perplexity, searxng |
MAX_WEB_RESEARCH_LOOPS | 最大研究迭代次数 | 3 | 1, 5, 10 |
FETCH_FULL_PAGE | 是否抓取整页内容 | false | true, false |
运行研究会话时,LangGraph Studio 提供研究过程的实时可视化
LangGraph Studio 中的图表可视化实时显示正在执行的每个步骤,包括
完成研究过程后,Local Deep Researcher 将生成
输出结构可以可视化为
最终研究摘要和所有来源都存储在图状态中,并可在 LangGraph Studio 界面中查看。
选择本地 LLM 进行研究时,请注意
为获得最佳结果,请选择具有强大结构化输出能力的模型。
访问 LangGraph Studio 时
| 浏览器 | 兼容性 |
|---|---|
| Firefox | 推荐以获得最佳体验 |
| Safari | 由于混合内容(HTTPS/HTTP)可能会遇到安全警告 |
| 其他浏览器 | 可能可用,但兼容性水平不一 |
如果您遇到问题
要在 Docker 容器中使用 Local Deep Researcher
构建 Docker 镜像
使用适当的环境变量运行容器
访问用户界面:https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024
注意:Docker 容器仅将 local-deep-researcher 作为服务运行 LangChain Studio。Ollama 必须单独运行。
此图显示了配置参数如何映射到系统组件
来源:README.md24-75 README.md118-141
| 问题 | 可能原因 | 解决方案 |
|---|---|---|
| LLM 无响应 | Ollama/LMStudio 未运行 | 确保 Ollama 或 LMStudio 正在运行且可访问 |
| 搜索结果无效 | 搜索 API 配置不正确 | 验证搜索 API 选择和 API 密钥 |
| 摘要质量差 | 模型限制 | 尝试使用更强大的模型或降低研究主题的复杂性 |
| 浏览器访问问题 | 混合内容警告 | 使用 Firefox 或暂时禁用安全功能 |
| Docker 连接问题 | 宿主机网络问题 | 使用host.docker.internal连接到宿主机服务 |
| JSON 解析错误 | 模型难以生成结构化输出 | 使用具有更好结构化输出能力的模型 |