本文详细介绍了 Open Interpreter 的命令行界面(CLI),它提供了一种基于终端与系统交互的方式。CLI 是使用 Open Interpreter 的三种主要方法之一,另外两种是Python API和服务器模式。
Open Interpreter CLI 在您的终端中提供了一个类似 ChatGPT 的界面,允许您与可以在本地机器上执行代码的语言模型进行交互。CLI 通过命令行参数和带有特殊命令的交互模式提供各种配置选项。
来源:README.md33-41 README.md77-82
pip install open-interpreter
对于遇到安装问题的用户,Open Interpreter 在文档中提供了详细的设置指南。
在终端中启动交互式聊天会话
interpreter
这将启动 CLI 界面,您可以立即开始与解释器聊天。
来源:README.md33-41 README.md77-82
CLI 支持各种命令行参数以自定义行为
| 参数 | 描述 | 示例 |
|---|---|---|
--model | 指定要使用的语言模型 | interpreter --model gpt-3.5-turbo |
--api_base | 指定模型的自定义 API 基础 URL | interpreter --api_base "http://:1234/v1" |
--api_key | 为语言模型提供 API 密钥 | interpreter --api_key "sk-..." |
--local | 使用 Llamafile 运行本地模型 | interpreter --local |
-y | 无需确认自动运行代码 | interpreter -y |
--verbose | 启用详细模式进行调试 | interpreter --verbose |
--profile | 使用特定的配置配置文件 | interpreter --profile my_profile.yaml |
--profiles | 打开配置文件目录 | interpreter --profiles |
--max_tokens | 设置模型输出的最大 token 数 | interpreter --max_tokens 1000 |
--context_window | 设置上下文窗口大小(以 token 计) | interpreter --context_window 3000 |
--safe | 启用实验性安全模式 | interpreter --safe |
--os | 指定操作系统功能 | interpreter --os |
来源:README.md115-137 README.md198-202
Open Interpreter 支持使用本地语言模型运行,这对于离线使用或处理敏感数据非常有用。
使用本地模型主要有两种方法
使用 Llamafile(最简单):
interpreter --local
使用第三方本地推理服务器(LM Studio、Jan.ai、Ollama 等)
interpreter --api_base "http://:1234/v1" --api_key "fake_key"
使用本地模型时,您可能需要根据您的特定设置调整参数
interpreter --local --max_tokens 1000 --context_window 3000
在活动的解释器会话中,可以使用特殊命令
| 命令 | 描述 |
|---|---|
%verbose [true/false] | 切换详细模式进行调试 |
%reset | 重置当前对话历史 |
%undo | 移除上一条用户消息和 AI 回复 |
%tokens [prompt] | 计算 token 使用量和预估成本 |
%help | 显示可用命令和帮助信息 |
Open Interpreter 允许您使用 YAML 文件创建和管理配置配置文件,提供了一种方便的方式来存储和重用不同的设置。
打开配置文件目录
interpreter --profiles
默认配置文件名为default.yaml。您可以创建其他配置文件并在启动时指定它们
interpreter --profile my_profile.yaml
配置文件结构示例
由于 Open Interpreter 在您的本地系统上执行代码,因此存在重要的安全考量
interpreter -y绕过确认,但这会增加风险interpreter --safe启用实验性安全模式CLI 界面是 Open Interpreter 核心功能的入口之一,将用户连接到底层组件。
来源:README.md45-53 README.md77-82 README.md115-137
使用 Open Interpreter CLI 的典型工作流程可能如下所示
使用所需配置启动解释器
interpreter --model gpt-4 --verbose
以自然语言请求开始
> Can you analyze the CSV file in my Downloads folder and create a visualization of the data?
解释器将
-y标志)继续对话以完善或扩展先前的请求
根据需要使用特殊命令
> %reset
开始新对话
来源:README.md45-53 README.md77-82
| 问题 | 解决方案 |
|---|---|
| 模型连接失败 | 验证 API 密钥和互联网连接 |
| 本地模型未加载 | 检查服务器是否正在运行以及 API 基础 URL 是否正确 |
| 本地模型内存不足 | 减少--context_window和--max_tokens |
| 代码执行错误 | 使用--verbose查看详细错误消息 |
| 响应时间慢 | 考虑使用不同的模型或减小上下文大小 |