本文档全面介绍了 Open Interpreter 中所有可配置的设置。这些设置控制语言模型的行为、核心解释器功能和代码执行环境。有关通过配置配置文件管理设置的信息,请参阅配置文件系统。
Open Interpreter 设置按层级组织,对应于系统的主要组件
来源
Open Interpreter 提供了三种配置设置的方式
来源
这些设置控制语言模型的选择、行为和功能。它们可以通过 Python API 中的 interpreter.llm 对象进行访问。
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
模型 | 语言模型标识符 | --model "gpt-4" | interpreter.llm.model = "gpt-4" | llm.model: gpt-4 |
API 密钥 | API 身份验证密钥 | --api_key "sk-..." | interpreter.llm.api_key = "sk-..." | llm.api_key: sk-... |
API 基础 URL | 自定义 API 端点 URL | --api_base "url" | interpreter.llm.api_base = "url" | llm.api_base: url |
API 版本 | API 版本标识符 | --api_version "v1" | interpreter.llm.api_version = "v1" | llm.api_version: v1 |
来源
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
温度 | 随机性 (0-1) | --temperature 0.7 | interpreter.llm.temperature = 0.7 | llm.temperature: 0.7 |
上下文窗口 | 令牌上下文大小 | --context_window 16000 | interpreter.llm.context_window = 16000 | llm.context_window: 16000 |
最大令牌数 | 输出令牌限制 | --max_tokens 500 | interpreter.llm.max_tokens = 500 | llm.max_tokens: 500 |
最大输出 | 代码输出字符限制 | --max_output 1000 | interpreter.llm.max_output = 1000 | llm.max_output: 1000 |
来源
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
支持函数 | 模型可以使用函数调用 | --llm_supports_functions | interpreter.llm.supports_functions = True | llm.supports_functions: true |
支持视觉 | 模型可以处理图像 | --llm_supports_vision | interpreter.llm.supports_vision = True | llm.supports_vision: true |
执行指令 | 无函数模型的代码执行指令 | 不适用 | interpreter.llm.execution_instructions = "..." | llm.execution_instructions: "..." |
来源
这些设置控制 Open Interpreter 的核心行为,并可通过 interpreter 对象直接访问。
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
自动运行 | 无需确认即可执行代码 | --auto_run | interpreter.auto_run = True | auto_run: true |
安全模式 | 安全机制级别(关/询问/自动) | --safe_mode ask | interpreter.safe_mode = "ask" | safe_mode: ask |
循环 | 强制任务完成循环 | --loop | interpreter.loop = True | loop: true |
最大预算 | 美元预算限制 | --max_budget 0.01 | interpreter.max_budget = 0.01 | max_budget: 0.01 |
来源
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
离线 | 禁用在线功能 | --offline | interpreter.offline = True | offline: true |
本地 | 本地运行模型 | --local | 参见下面的详细示例 | local: true |
详细 | 显示调试信息 | --verbose | interpreter.verbose = True | verbose: true |
操作系统 | 启用操作系统控制模式 | --os | interpreter.os = True | os: true |
视觉 | 启用视觉功能 | --vision | 参见下方示例 | 参见示例 |
快速 | 使用快速 GPT 模型 | --fast | 不适用 | fast: true |
用于本地模式配置
来源
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
系统消息 | 核心系统消息 | --system_message "..." | interpreter.system_message = "..." | system_message: "..." |
自定义指令 | 附加指令 | --custom_instructions "..." | interpreter.custom_instructions = "..." | custom_instructions: "..." |
用户消息模板 | 用户消息模板 | 不适用 | interpreter.user_message_template = "{content}..." | 自定义条目 |
代码输出模板 | 代码输出模板 | 不适用 | interpreter.code_output_template = "Code output: {content}..." | 自定义条目 |
空代码输出模板 | 空输出模板 | 不适用 | interpreter.empty_code_output_template = "..." | 自定义条目 |
代码输出发送者 | 谁发送代码输出(用户/助手) | 不适用 | interpreter.code_output_sender = "user" | 自定义条目 |
始终应用用户消息模板 | 将模板应用于所有消息 | 不适用 | interpreter.always_apply_user_message_template = False | 自定义条目 |
来源
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
消息 | 对话历史 | 不适用 | interpreter.messages = [...] | 不适用 |
匿名遥测 | 启用/禁用遥测 | --disable_telemetry | interpreter.anonymized_telemetry = False | disable_telemetry: true |
来源
Open Interpreter 包含用于令牌计数和成本估算的实用程序
来源
这些设置控制处理代码执行和操作系统交互的计算机组件,可通过 interpreter.computer 对象访问。
| 设置 | 描述 | CLI 参数 | Python 属性 | 配置文件 YAML |
|---|---|---|---|---|
离线 | 禁用在线功能 | 不适用 | interpreter.computer.offline = True | computer.offline: True |
详细 | 显示调试信息 | 不适用 | interpreter.computer.verbose = True | computer.verbose: True |
发出图像 | 启用图像输出 | 不适用 | interpreter.computer.emit_images = True | computer.emit_images: True |
导入计算机 API | 在系统消息中包含 API | 不适用 | interpreter.computer.import_computer_api = True | computer.import_computer_api: True |
emit_images 设置尤为重要,因为它控制了 computer.display.view() 等函数是返回实际屏幕截图(与多模态模型配合使用时)还是屏幕内容的文本表示。
来源