本文详细介绍了 Local Deep Researcher 系统如何与本地托管的大型语言模型 (LLM) 集成,以增强其研究能力。它涵盖了支持的 LLM 提供商、配置选项、集成架构以及系统如何与本地 LLM 服务交互。
有关系统如何与搜索提供商集成的信息,请参阅搜索 API 集成。
Local Deep Researcher 支持两种 LLM 提供商:
此集成设计为提供商无关,允许用户选择最适合其需求的本地 LLM 解决方案。
来源
来源
LLM 集成通过 Configuration 类进行配置,该类管理以下 LLM 相关参数:
| 参数 | 描述 | 默认值 |
|---|---|---|
local_llm | 要使用的 LLM 模型名称 | "llama3.2" |
llm_provider | LLM 提供商(ollama 或 lmstudio) | "ollama" |
ollama_base_url | Ollama API 的基本 URL | "http://:11434/" |
lmstudio_base_url | LMStudio API 的基本 URL | "http://:1234/v1" |
strip_thinking_tokens | 是否从响应中去除 <think> 令牌 | True |
配置值遵循优先级顺序
来源
系统通过 LangChain 的 ChatOllama 类与 Ollama 集成。此集成需要:
ollama pull deepseek-r1:8b)ollama_base_url 配置正确(默认值:"http://:11434/")系统将连接到 Ollama API,向指定模型发送提示,并处理响应。
来源
系统通过自定义的 ChatLMStudio 类与 LMStudio 集成,该类继承自 LangChain 的 ChatOpenAI。此实现包括:
自定义实现增加了对 JSON 格式响应的特殊处理,并连接到 LMStudio 的 OpenAI 兼容 API 端点。LMStudio 集成需要:
lmstudio_base_url 配置正确(默认值:"http://:1234/v1")来源
来源
对于结构化输出,ChatLMStudio 实现包含了对 JSON 响应的特殊处理:
format="json" 时,它会设置相应的 response_format 参数这种处理有助于确保即使模型难以严格格式化也能输出一致的 JSON。
来源
LLM 在整个研究工作流程中执行多项关键功能:
这种迭代方法使系统能够逐步完善其对研究主题的理解。
来源
并非所有 LLM 都能在结构化输出要求下表现同样出色
来源
使用 Docker 部署时,Ollama 服务必须与 Local Deep Researcher 容器分开运行。从 Docker 容器内部连接到 Ollama API 需要特殊配置:
OLLAMA_BASE_URL="http://host.docker.internal:11434/"
这使得容器化应用程序能够与在主机上运行的 Ollama 服务进行通信。
来源
刷新此 Wiki
最后索引时间2025年4月17日(5e5362)