菜单

命令行界面

相关源文件

本文详细介绍了 Open Interpreter 的命令行界面(CLI),它提供了一种基于终端与系统交互的方式。CLI 是使用 Open Interpreter 的三种主要方法之一,另外两种是Python API服务器模式

介绍

Open Interpreter CLI 在您的终端中提供了一个类似 ChatGPT 的界面,允许您与可以在本地机器上执行代码的语言模型进行交互。CLI 通过命令行参数和带有特殊命令的交互模式提供各种配置选项。

来源:README.md33-41 README.md77-82

安装与基本用法

安装

pip install open-interpreter

对于遇到安装问题的用户,Open Interpreter 在文档中提供了详细的设置指南。

基本用法

在终端中启动交互式聊天会话

interpreter

这将启动 CLI 界面,您可以立即开始与解释器聊天。

来源:README.md33-41 README.md77-82

命令行参数

CLI 支持各种命令行参数以自定义行为

参数描述示例
--model指定要使用的语言模型interpreter --model gpt-3.5-turbo
--api_base指定模型的自定义 API 基础 URLinterpreter --api_base "http://:1234/v1"
--api_key为语言模型提供 API 密钥interpreter --api_key "sk-..."
--local使用 Llamafile 运行本地模型interpreter --local
-y无需确认自动运行代码interpreter -y
--verbose启用详细模式进行调试interpreter --verbose
--profile使用特定的配置配置文件interpreter --profile my_profile.yaml
--profiles打开配置文件目录interpreter --profiles
--max_tokens设置模型输出的最大 token 数interpreter --max_tokens 1000
--context_window设置上下文窗口大小(以 token 计)interpreter --context_window 3000
--safe启用实验性安全模式interpreter --safe
--os指定操作系统功能interpreter --os

命令执行流程

来源:README.md115-137 README.md198-202

本地模型

Open Interpreter 支持使用本地语言模型运行,这对于离线使用或处理敏感数据非常有用。

使用本地模型运行

使用本地模型主要有两种方法

  1. 使用 Llamafile(最简单):

    interpreter --local
    
  2. 使用第三方本地推理服务器(LM Studio、Jan.ai、Ollama 等)

    interpreter --api_base "http://:1234/v1" --api_key "fake_key"
    

使用本地模型时,您可能需要根据您的特定设置调整参数

interpreter --local --max_tokens 1000 --context_window 3000

来源:README.md212-282

交互模式命令

在活动的解释器会话中,可以使用特殊命令

命令描述
%verbose [true/false]切换详细模式进行调试
%reset重置当前对话历史
%undo移除上一条用户消息和 AI 回复
%tokens [prompt]计算 token 使用量和预估成本
%help显示可用命令和帮助信息

来源:README.md282-294

配置文件

Open Interpreter 允许您使用 YAML 文件创建和管理配置配置文件,提供了一种方便的方式来存储和重用不同的设置。

管理配置文件

打开配置文件目录

interpreter --profiles

默认配置文件名为default.yaml。您可以创建其他配置文件并在启动时指定它们

interpreter --profile my_profile.yaml

配置文件结构示例

来源:README.md295-316

安全注意事项

由于 Open Interpreter 在您的本地系统上执行代码,因此存在重要的安全考量

  1. 默认情况下,Open Interpreter 在执行任何代码前会要求确认
  2. 您可以使用interpreter -y绕过确认,但这会增加风险
  3. 对修改文件或系统设置的请求要谨慎
  4. 对于敏感操作,请考虑在受限环境中运行
  5. 可以通过interpreter --safe启用实验性安全模式

来源:README.md354-366

与核心架构的关系

CLI 界面是 Open Interpreter 核心功能的入口之一,将用户连接到底层组件。

来源:README.md45-53 README.md77-82 README.md115-137

典型工作流程示例

使用 Open Interpreter CLI 的典型工作流程可能如下所示

  1. 使用所需配置启动解释器

    interpreter --model gpt-4 --verbose
    
  2. 以自然语言请求开始

    > Can you analyze the CSV file in my Downloads folder and create a visualization of the data?
    
  3. 解释器将

    • 建议执行的代码
    • 请求确认(除非使用了-y标志)
    • 获得批准后执行代码
    • 显示输出
    • 提供结果解释
  4. 继续对话以完善或扩展先前的请求

  5. 根据需要使用特殊命令

    > %reset
    

    开始新对话

来源:README.md45-53 README.md77-82

故障排除

常见问题与解决方案

问题解决方案
模型连接失败验证 API 密钥和互联网连接
本地模型未加载检查服务器是否正在运行以及 API 基础 URL 是否正确
本地模型内存不足减少--context_window--max_tokens
代码执行错误使用--verbose查看详细错误消息
响应时间慢考虑使用不同的模型或减小上下文大小

来源:README.md269-282