菜单

环境变量

相关源文件

环境变量是配置 Local Deep Researcher 系统的主要方法。它们允许您在不修改代码的情况下自定义要使用的 LLM 提供商、搜索 API 设置、API 凭据以及研究行为参数。本页面记录了所有可用的环境变量、它们的默认值以及它们如何影响系统操作。

有关 LangGraph 配置设置的信息,请参阅LangGraph 配置

配置优先级

在 Local Deep Researcher 中,配置值按照以下优先级顺序确定

  1. 环境变量(最高优先级)
  2. LangGraph UI 配置设置
  3. Configuration 类中的默认值(最低优先级)

这意味着环境变量将始终覆盖 LangGraph UI 中的任何设置或默认值。

配置流程图

来源:README.md24-35 src/ollama_deep_researcher/configuration.py58-75

环境变量参考

下表列出了 Local Deep Researcher 系统使用的所有环境变量

可变描述默认值效果
SEARCH_API搜索提供商选择duckduckgo确定使用哪个搜索 API(选项:duckduckgotavilyperplexitysearxng
SEARXNG_URLSearXNG 实例 URLhttp://:8888如果选择 SearXNG,则设置其搜索端点
TAVILY_API_KEYTavily 的 API 密钥None使用 Tavily 搜索服务所需
PERPLEXITY_API_KEYPerplexity 的 API 密钥None使用 Perplexity 搜索服务所需
LLM_PROVIDERLLM 提供商选择ollama指定要使用的本地 LLM 服务(选项:ollamalmstudio
LOCAL_LLM要使用的模型名称llama3.2指定从 LLM 提供商加载哪个模型
LMSTUDIO_BASE_URLLMStudio API 端点http://:1234/v1如果选择 LMStudio 作为提供商,则设置其端点
OLLAMA_BASE_URLOllama API 端点http://:11434如果选择 Ollama 作为提供商,则设置其端点
MAX_WEB_RESEARCH_LOOPS研究迭代次数3控制系统执行的研究循环次数
FETCH_FULL_PAGE完整页面内容检索false当为 true 时,检索完整的网页而不是摘要

来源:.env.example1-17 src/ollama_deep_researcher/configuration.py14-56

配置类映射

下图展示了环境变量如何映射到Configuration 类和相关的系统组件

来源:src/ollama_deep_researcher/configuration.py1-75 .env.example1-17

环境变量处理流程

以下序列图说明了系统如何处理环境变量

来源:src/ollama_deep_researcher/configuration.py58-75 README.md129-135

设置环境变量

通过 .env 文件

配置系统的主要方法是通过项目根目录中的.env 文件

  1. 复制示例文件:cp .env.example .env
  2. 使用您偏好的值编辑.env 文件
  3. 系统在通过python-dotenv 启动时会自动加载这些值。

来源:README.md24-25

通过 Docker 环境变量标志

作为 Docker 容器运行时,使用-e 标志传递环境变量

docker run --rm -it -p 2024:2024 \
  -e SEARCH_API="tavily" \
  -e TAVILY_API_KEY="tvly-xxxxx" \
  -e LLM_PROVIDER=ollama \
  -e OLLAMA_BASE_URL="http://host.docker.internal:11434/" \
  -e LOCAL_LLM="llama3.2" \
  local-deep-researcher

来源:README.md197-205

常见配置示例

标准 Ollama 配置

LLM_PROVIDER=ollama
LOCAL_LLM=llama3.2
OLLAMA_BASE_URL=http://:11434
SEARCH_API=duckduckgo
MAX_WEB_RESEARCH_LOOPS=3
LLM_PROVIDER=lmstudio
LOCAL_LLM=qwen_qwq-32b
LMSTUDIO_BASE_URL=http://:1234/v1
SEARCH_API=tavily
TAVILY_API_KEY=tvly-xxxxx
MAX_WEB_RESEARCH_LOOPS=5

SearXNG 配置

SEARCH_API=searxng
SEARXNG_URL=http://:8888
LLM_PROVIDER=ollama
LOCAL_LLM=llama3.2
FETCH_FULL_PAGE=true

来源:README.md38-75 .env.example1-17