本文档提供了安装后使用本地深度研究员(Local Deep Researcher)系统的简单指南。它涵盖了运行、配置和监控您的第一个研究任务的基本步骤。有关详细的安装说明,请参阅部署;有关高级配置选项,请参阅配置。
在使用本地深度研究员(Local Deep Researcher)之前,您需要启动 LangGraph 服务器并访问 Studio UI。
source .venv/bin/activate
uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
.venv\Scripts\Activate.ps1
langgraph dev
服务器运行后,通过以下地址访问 LangGraph Studio UI:
https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024https://smith.langchain.com/studio/thread?baseUrl=http://127.0.0.1:2024来源:README.md79-128 README.md187-214
在开始研究之前,您可以通过 LangGraph Studio UI 调整配置设置。
配置优先级(从高到低)
要启动您的研究:
LangGraph Studio UI 可可视化整个研究工作流的进行过程,显示每个步骤的执行情况。
研究过程遵循以下关键步骤:
研究完成后,您可以直接在 LangGraph Studio UI 中查看输出。
最终总结以 Markdown 文档形式提供,并附带所有来源的引用,方便您审阅信息并在需要时查阅原始来源。
以下是典型研究会话的完整演练:
某些大型语言模型(LLM)可能难以处理结构化的 JSON 输出。系统包含了针对那些难以满足 JSON 格式要求的模型(例如 DeepSeek R1 (7B) 和 DeepSeek R1 (1.5B))的备用机制。