本文档提供了 PrivateGPT 安装和配置的全面指南。它涵盖了从基本要求到使用所需组件运行完整功能系统的所有内容。有关安装后配置选项的信息,请参阅配置系统。
在安装 PrivateGPT 之前,请确保您的系统满足以下要求
| 要求 | 规格 |
|---|---|
| Python 版本 | 3.11(不支持更早或更新的版本) |
| 操作系统 | Linux、macOS(Intel/Apple Silicon)、Windows |
| 磁盘空间 | 至少 10GB 用于模型和依赖项 |
| 内存 | 最低:8GB(基于云的 LLM),推荐:16GB+(本地 LLM) |
对于硬件加速(可选)
来源:README.md10-45 pyproject.toml8 fern/docs/pages/installation/installation.mdx11-25
PrivateGPT 的安装涉及几个关键步骤,从仓库设置到使用适当的组件运行系统。
来源:fern/docs/pages/installation/installation.mdx4-48 README.md77-80 fern/docs/pages/installation/installation.mdx11-25
安装Poetry进行依赖项管理,并将其更新到最新的测试版本
PrivateGPT 具有高度模块化,允许您选择要安装的组件。使用 Poetry 的--extras标志来指定您所需的组件
来源:fern/docs/pages/installation/installation.mdx26-48 pyproject.toml18-85
PrivateGPT 允许您混合搭配各种组件。下表概述了每个类别的可用选项
| 选项 | 描述 | 附加标志 | 隐私级别 |
|---|---|---|---|
| Ollama | 使用 Ollama 服务的本地 LLM | llms-ollama | 高 |
| LlamaCPP | 直接本地 LLM 集成 | llms-llama-cpp | 高 |
| OpenAI | 基于云的 OpenAI 模型 | llms-openai | 低 |
| 类似 OpenAI | 与 OpenAI 兼容的第三方 API | llms-openai-like | 可变 |
| Azure OpenAI | 微软 Azure 托管的模型 | llms-azopenai | 中等 |
| Sagemaker | AWS Sagemaker 托管的模型 | llms-sagemaker | 中等 |
| Gemini | Google Gemini 模型 | llms-gemini | 低 |
| 选项 | 描述 | 附加标志 | 隐私级别 |
|---|---|---|---|
| Ollama | 通过 Ollama 进行本地嵌入 | embeddings-ollama | 高 |
| HuggingFace | 本地 HuggingFace 嵌入 | embeddings-huggingface | 高 |
| OpenAI | 基于云的 OpenAI 嵌入 | embeddings-openai | 低 |
| Azure OpenAI | Azure 托管的 OpenAI 嵌入 | embeddings-azopenai | 中等 |
| Sagemaker | AWS Sagemaker 托管的嵌入 | embeddings-sagemaker | 中等 |
| Gemini | Google Gemini 嵌入 | embeddings-gemini | 低 |
| Mistral | Mistral AI 嵌入 | embeddings-mistral | 中等 |
| 选项 | 描述 | 附加标志 |
|---|---|---|
| Qdrant | Qdrant 向量数据库 | vector-stores-qdrant |
| Milvus | Milvus 向量数据库 | vector-stores-milvus |
| Chroma | ChromaDB 向量数据库 | vector-stores-chroma |
| Postgres | 带有 pgvector 的 PostgreSQL | vector-stores-postgres |
| ClickHouse | ClickHouse 向量数据库 | vector-stores-clickhouse |
| 选项 | 描述 | 附加标志 |
|---|---|---|
| Gradio | 使用 Gradio 的 Web UI | ui |
来源:pyproject.toml63-85 fern/docs/pages/installation/installation.mdx62-100
下图展示了 PrivateGPT 中不同组件的集成和配置方式
来源:README.md80-107 pyproject.toml8-85
根据您的需求,这里有几个推荐的配置
Ollama 提供了一种简单的方式来在本地运行具有 GPU 加速的 LLM
ollama serve系统将自动下载所需的模型(默认:LLM 为 llama3.1,嵌入为 nomic-embed-text),或者您可以手动拉取它们
为了更直接地控制模型加载和参数
用于使用 OpenAI 的模型(注意:不属于私有,数据会离开您的环境)
用于 AWS Sagemaker 集成
来源:fern/docs/pages/installation/installation.mdx107-236
来源:README.md42-45 fern/docs/pages/installation/installation.mdx130-236
来源:fern/docs/pages/installation/installation.mdx272-387
构建 LlamaCPP 时,您可能会遇到 C++ 编译器错误
安装 Visual Studio 2022 并选择 C++ 开发组件或 MinGW。
安装 Xcode 或使用brew install gcc。
如果您遇到“嵌入维度不匹配”错误,请确保您的嵌入模型与配置中的向量维度匹配
对于使用 BGE 嵌入的旧设置,您需要
对于受限的 HuggingFace 模型,请设置访问令牌
或使用环境变量
如果在 CUDA 运行时遇到内存不足的错误
来源:fern/docs/pages/installation/troubleshooting.mdx1-64 fern/docs/pages/installation/installation.mdx389-406
成功安装后
有关详细配置选项,请参阅配置系统文档,有关部署详细信息,请参阅部署选项文档。
来源:README.md39-41 fern/docs/pages/installation/installation.mdx49-56
刷新此 Wiki
最后索引时间2025 年 4 月 18 日(b7ee43)