菜单

使用指南

相关源文件

本指南解释了如何使用 Local Deep Researcher,它是一个完全本地化的网络研究助手,利用本地 LLM(通过 Ollama 或 LMStudio 托管)对用户提供的主题进行自动化、迭代的网络研究。本文档涵盖了设置、配置、运行研究会话、监控进度和解释结果。有关部署说明,请参阅部署

先决条件

在使用 Local Deep Researcher 之前,请确保您已具备

  1. 已克隆存储库并安装了必要的依赖项
  2. 已配置本地 LLM 提供程序(Ollama 或 LMStudio)
  3. 可选的搜索 API 密钥(如果使用 Tavily、Perplexity 或自定义 SearXNG 实例)
  4. 环境变量通过.env文件或 LangGraph Studio UI 配置

用户工作流程

下图展示了使用 Local Deep Researcher 时的典型用户工作流程

来源:README.md118-141

开始研究会话

访问界面

  1. 按照部署部分所述启动 LangGraph 服务器
  2. 在提供的 URL(通常是https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024)处打开 LangGraph Studio UI
  3. 如果通过 Docker 运行,请使用https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024

配置选项

系统提供三种配置研究会话的方式,按优先级排序

  1. 环境变量(最高优先级)
  2. LangGraph UI 配置
  3. Configuration 类中的默认值(最低优先级)

关键配置参数包括

参数描述默认示例值
LLM_PROVIDER要使用的 LLM 提供程序ollamaollama, lmstudio
LOCAL_LLM要使用的模型名称llama3.2deepseek-r1:8b, qwen_qwq-32b
SEARCH_API搜索提供程序duckduckgoduckduckgo, tavily, perplexity, searxng
MAX_WEB_RESEARCH_LOOPS最大研究迭代次数31, 5, 10
FETCH_FULL_PAGE是否抓取整页内容falsetrue, false

来源:README.md24-75

研究过程可视化

运行研究会话时,LangGraph Studio 提供研究过程的实时可视化

LangGraph Studio 中的图表可视化实时显示正在执行的每个步骤,包括

  • 过程中的当前步骤
  • 每个步骤的输入和输出
  • 研究的当前状态

来源:README.md157-167

理解研究输出

完成研究过程后,Local Deep Researcher 将生成

  1. 一份关于研究主题的全面 Markdown 格式摘要
  2. 研究中使用的所有来源的引用
  3. 完整的搜索过程记录

输出结构可以可视化为

最终研究摘要和所有来源都存储在图状态中,并可在 LangGraph Studio 界面中查看。

来源:README.md168-176

模型兼容性注意事项

选择本地 LLM 进行研究时,请注意

  1. 系统在某些步骤中使用结构化 JSON 输出
  2. 某些模型可能难以满足此要求
  3. 当模型难以生成有效 JSON 时,系统包含回退机制
  4. DeepSeek R1 (7B) 和 DeepSeek R1 (1.5B) 等模型可能会触发这些回退

为获得最佳结果,请选择具有强大结构化输出能力的模型。

来源:README.md143-146

浏览器兼容性

访问 LangGraph Studio 时

浏览器兼容性
Firefox推荐以获得最佳体验
Safari由于混合内容(HTTPS/HTTP)可能会遇到安全警告
其他浏览器可能可用,但兼容性水平不一

如果您遇到问题

  1. 尝试使用 Firefox
  2. 禁用广告拦截扩展
  3. 检查浏览器控制台以获取具体的错误消息

来源:README.md147-156

高级用法

Docker 容器使用

要在 Docker 容器中使用 Local Deep Researcher

  1. 构建 Docker 镜像

  2. 使用适当的环境变量运行容器

  3. 访问用户界面:https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024

注意:Docker 容器仅将 local-deep-researcher 作为服务运行 LangChain Studio。Ollama 必须单独运行。

来源:README.md187-214

配置映射

此图显示了配置参数如何映射到系统组件

来源:README.md24-75 README.md118-141

常见问题排查

问题可能原因解决方案
LLM 无响应Ollama/LMStudio 未运行确保 Ollama 或 LMStudio 正在运行且可访问
搜索结果无效搜索 API 配置不正确验证搜索 API 选择和 API 密钥
摘要质量差模型限制尝试使用更强大的模型或降低研究主题的复杂性
浏览器访问问题混合内容警告使用 Firefox 或暂时禁用安全功能
Docker 连接问题宿主机网络问题使用host.docker.internal连接到宿主机服务
JSON 解析错误模型难以生成结构化输出使用具有更好结构化输出能力的模型

来源:README.md143-156

有关系统架构和组件的更深入了解,请参阅系统架构核心组件。有关详细配置选项,请参阅配置