本文档提供了通过官方 Web 界面和 API 访问和使用 DeepSeek-V3 模型的全面指南。它涵盖了 DeepSeek 提供的官方托管服务以及自托管 API 的各种选项。有关不具备 API 功能的本地部署信息,请参阅 本地部署选项。
DeepSeek 提供两个官方平台,用于与 DeepSeek-V3 模型进行交互。
官方 DeepSeek 聊天网站允许通过用户友好的 Web 界面与 DeepSeek-V3 模型进行直接交互。
对于需要程序化访问的开发人员,DeepSeek 通过其平台提供与 OpenAI 兼容的 API。
API 兼容性:该 API 设计为与 OpenAI 的 API 格式兼容,允许开发人员轻松地将为 OpenAI 模型构建的现有应用程序迁移到 DeepSeek-V3。
DeepSeek-V3 可使用各种框架进行自托管,每个框架都提供不同的优化技术和硬件支持选项。
下表总结了每个自托管框架的关键特性。
| 框架 | FP8 支持 | BF16 支持 | MTP 支持 | NVIDIA 支持 | AMD 支持 | 华为昇腾 NPU | 多节点支持 |
|---|---|---|---|---|---|---|---|
| DeepSeek-Infer 演示 | ✓ | ✓ | ✗ | ✓ | ✗ | ✗ | ✓ |
| SGLang | ✓ | ✓ | 即将推出 | ✓ | ✓ | ✗ | ✓ |
| LMDeploy | ✓ | ✓ | ✗ | ✓ | ✗ | ✗ | ✓ |
| TensorRT-LLM | ✗ | ✓ | ✗ | ✓ | ✗ | ✗ | ✓ |
| vLLM | ✓ | ✓ | ✗ | ✓ | ✓ | ✗ | ✓ |
| LightLLM | ✓ | ✓ | ✗ | ✓ | ✗ | ✗ | ✓ |
下面是 API 实现如何连接到底层 DeepSeek-V3 模型架构的技术概述。
来源:README.md45-54 README.md229-305
设置自托管 API 的一般过程包括:
由于 DeepSeek-V3 本机使用 FP8 精度,因此某些框架可能需要转换为 BF16。
这是一个基本示例,展示了如何使用 DeepSeek-Infer Demo 设置 DeepSeek-V3 服务器。
SGLang 为 DeepSeek-V3 提供全面支持,是大多数部署的首选,尤其是在需要 AMD GPU 支持的情况下。
附加功能
有关详细设置说明,请参阅 SGLang 文档:https://github.com/sgl-project/sglang/tree/main/benchmark/deepseek_v3
以上所有框架均支持 NVIDIA GPU,这是 DeepSeek-V3 的主要目标硬件。
对于 AMD GPU 部署,推荐的选项是:
华为昇腾社区的 MindIE 框架支持 DeepSeek-V3 的 BF16 版本。
在使用与 OpenAI 兼容的 API(无论是通过官方平台还是自托管解决方案)时,其界面遵循与其他 LLM API 类似的模式。
如果您在 Web 界面或 API 访问方面遇到问题,请考虑以下常见解决方案:
如需更多帮助,您可以联系 DeepSeek:service@deepseek.com