菜单

基本用法

相关源文件

本文档提供了安装后使用本地深度研究员(Local Deep Researcher)系统的简单指南。它涵盖了运行、配置和监控您的第一个研究任务的基本步骤。有关详细的安装说明,请参阅部署;有关高级配置选项,请参阅配置

启动应用程序

在使用本地深度研究员(Local Deep Researcher)之前,您需要启动 LangGraph 服务器并访问 Studio UI。

在 Mac 上

source .venv/bin/activate
uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev

在 Windows 上

.venv\Scripts\Activate.ps1
langgraph dev

访问用户界面

服务器运行后,通过以下地址访问 LangGraph Studio UI:

  • 默认 URL:https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
  • Docker URL:https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024

来源:README.md79-128 README.md187-214

配置研究参数

在开始研究之前,您可以通过 LangGraph Studio UI 调整配置设置。

配置优先级(从高到低)

  1. .env 文件中的环境变量
  2. LangGraph UI 配置选项卡中的设置
  3. Configuration 类中的默认值

来源:README.md129-137

启动研究任务

要启动您的研究:

  1. 导航到 LangGraph Studio UI 中的主界面
  2. 在输入字段中输入您的研究主题
  3. 提交以开始研究过程

来源:README.md138-141

监控研究过程

LangGraph Studio UI 可可视化整个研究工作流的进行过程,显示每个步骤的执行情况。

研究过程遵循以下关键步骤:

  1. 根据主题或知识空白生成有效的搜索查询
  2. 使用配置的搜索 API 执行搜索查询
  3. 总结搜索结果中的信息
  4. 反思总结内容以识别知识空白
  5. 生成新查询以弥补这些空白
  6. 重复此过程,直到达到最大研究循环次数

来源:README.md157-167

查看研究输出

研究完成后,您可以直接在 LangGraph Studio UI 中查看输出。

可用输出

  • 收集到的来源:研究期间使用的所有网络来源
  • 最终总结:包含引用的全面研究总结
  • 图状态:包含所有中间结果的完整状态

最终总结以 Markdown 文档形式提供,并附带所有来源的引用,方便您审阅信息并在需要时查阅原始来源。

来源:README.md168-176

研究会话示例

以下是典型研究会话的完整演练:

  1. 启动 LangGraph 服务器
  2. 通过提供的 URL 访问 Studio UI
  3. (可选)调整配置设置
  4. 输入研究主题(例如,“量子计算的最新进展”)
  5. 提交主题以开始研究
  6. 通过可视化界面监控研究过程
  7. 完成后,审阅最终总结和来源
  8. 复制或导出 Markdown 总结以供使用

来源:README.md157-176

常见问题排查

模型兼容性

某些大型语言模型(LLM)可能难以处理结构化的 JSON 输出。系统包含了针对那些难以满足 JSON 格式要求的模型(例如 DeepSeek R1 (7B) 和 DeepSeek R1 (1.5B))的备用机制。

浏览器兼容性

  • 推荐:Firefox 提供最佳体验
  • Safari 问题:由于混合内容(HTTPS/HTTP)可能遇到安全警告
  • 如果遇到问题::
    1. 尝试使用 Firefox 或其他浏览器
    2. 禁用广告拦截扩展
    3. 检查浏览器控制台以获取具体错误消息

来源:README.md144-156