跳到主要内容
版本:dev

前置条件

这里列出了安装 DB-GPT 之前需要准备的全部内容。

快速检查

如果你已经安装了 Python 3.10+ 和 uv,可以直接跳到 快速开始

必需环境

依赖项版本检查命令
Python3.10 或更高python --version
uv最新版uv --version
Git任意较新版本git --version

Python

DB-GPT 需要 Python 3.10+。推荐使用 Python 3.11 以获得更好的兼容性。

python --version
# Python 3.11.x
信息

如果你需要管理多个 Python 版本,可以考虑使用 pyenvconda

uv(包管理器)

从 v0.7.0 开始,DB-GPT 使用 uv 进行环境与依赖管理,依赖解析更快也更稳定。

curl -LsSf https://astral.sh/uv/install.sh | sh

安装完成后验证:

uv --version

先选择合适的部署方式

  • 最快上手:API 代理模型(OpenAI、DeepSeek、Qwen、SiliconFlow)—— 不需要 GPU
  • 注重隐私的本地部署:Ollama —— 本地模型运行时,可选 GPU
  • 高性能本地推理:vLLM 或 HuggingFace GPU 方案 —— 需要 NVIDIA GPU

可选环境(按部署方式决定)

用于 Web UI 开发

依赖项版本检查命令
Node.js18 或更高node --version
npm8 或更高npm --version

用于本地模型部署

依赖项说明
NVIDIA GPUGPU 推理推荐 CUDA 12.1+
CUDA Toolkit使用 vLLM 或 HuggingFace GPU 推理时需要
足够的显存7B 模型建议 8 GB+,13B+ 模型建议 24 GB+
信息

如果你只使用 API 代理模型(OpenAI、DeepSeek 等),不需要 GPU,CPU 机器即可运行。

用于 Docker 部署

依赖项版本检查命令
Docker20.10+docker --version
Docker Compose2.0+docker compose version
NVIDIA Container Toolkit最新版(仅 GPU 场景)nvidia-smi

系统资源建议

部署类型CPU内存磁盘
仅 API 代理2 核4 GB10 GB
本地 7B 模型4 核16 GB30 GB
本地 13B+ 模型8 核32 GB60 GB

网络注意事项(中国区)

如果你在中国大陆,建议配置 PyPI 镜像以加快依赖下载:

# 将镜像地址设置为环境变量
echo "export UV_INDEX_URL=https://pypi.tuna.tsinghua.edu.cn/simple" >> ~/.bashrc
source ~/.bashrc

或者在 uv sync 命令中附加 --index-url

uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--index-url=https://pypi.tuna.tsinghua.edu.cn/simple

下一步

准备好了?前往 快速开始 按 5 分钟流程完成安装。