菜单

LobeChat 简介

相关源文件

本文全面概述了 LobeChat 作为开源 AI 聊天应用程序框架的架构、目的和核心功能。它涵盖了系统的基本设计、技术栈以及使用户能够部署支持多种模型提供商的私人 AI 聊天应用程序的关键组件。

有关特定子系统的详细信息,请参阅AI 模型提供商系统配置管理部署选项开发设置

目的和核心概念

LobeChat 是一个开源、高性能的聊天机器人框架,允许用户通过一键部署私有 AI 聊天应用程序。该系统支持多种 AI 模型提供商、语音合成、多模态交互以及可扩展的插件生态系统。

核心架构概述

来源: package.json1-30 README.md1-50

技术栈与框架基础

LobeChat 基于为可扩展性和开发者体验而设计的现代 Web 技术栈构建

主要技术

  • Next.js 15:采用 App Router 和服务器组件的 React 框架
  • TypeScript:类型安全的开发环境
  • React 19:具备最新特性的用户界面库
  • Zustand:用于客户端数据状态管理
  • Ant Design:支持自定义主题的 UI 组件库

AI 与集成技术栈

  • Vercel AI SDK:流式 AI 响应和模型集成
  • tRPC:客户端与服务器之间的类型安全 API 路由
  • Drizzle ORM:数据库操作和模式管理
  • PGLite:客户端 PostgreSQL 数据库

核心框架组件

来源: package.json121-273 vitest.config.ts1-47

核心系统功能

LobeChat 提供了多项使其成为综合性 AI 聊天平台的关键功能

多提供商 AI 集成

支持 40 多个 AI 模型提供商,包括 OpenAI、Anthropic、Google、AWS Bedrock 以及通过 Ollama 提供的本地模型。AgentRuntime 系统抽象了特定于提供商的实现。

灵活的部署模型

  • 纯客户端模式:使用 PGLite 进行本地数据存储
  • 服务器模式:使用 PostgreSQL 和 S3 的全栈部署
  • 混合模式:结合客户端和服务器功能

插件生态系统

可扩展的函数调用系统,使用 @lobehub/chat-plugin-sdk,支持与外部服务和工具集成。

国际化

内置支持 15 种以上语言,并使用 @lobehub/i18n-cli 系统实现自动翻译工作流。

部署架构概述

来源: README.md182-240 .i18nrc.js1-54

目标用例与应用场景

LobeChat 旨在支持多种部署场景

个人用户

  • 具有自定义模型偏好的个人 AI 助手
  • 具有数据控制权的私人 ChatGPT 替代方案
  • 尝试不同的 AI 模型和提供商

组织机构

  • 支持企业认证的内部 AI 聊天平台
  • 用于特定业务流程的自定义 AI 代理
  • 具有集中管理能力的多用户部署

开发者

  • AI 应用程序开发框架
  • 插件开发平台
  • 模型提供商集成测试

该系统的模块化架构使组织能够选择符合其安全、可扩展性和集成要求的部署策略,同时对其数据和 AI 交互保持完全控制。

来源: README.md90-100 CHANGELOG.md1-50