前置条件
这里列出了安装 DB-GPT 之前需要准备的全部内容。
快速检查
如果你已经安装了 Python 3.10+ 和 uv,可以直接跳到 快速开始。
必需环境
| 依赖项 | 版本 | 检查命令 |
|---|---|---|
| Python | 3.10 或更高 | python --version |
| uv | 最新版 | uv --version |
| Git | 任意较新版本 | git --version |
Python
DB-GPT 需要 Python 3.10+。推荐使用 Python 3.11 以获得更好的兼容性。
python --version
# Python 3.11.x
uv(包管理器)
从 v0.7.0 开始,DB-GPT 使用 uv 进行环境与依赖管理,依赖解析更快也更稳定。
- macOS / Linux
- pipx
- Other
curl -LsSf https://astral.sh/uv/install.sh | sh
python -m pip install --upgrade pip
python -m pip install --upgrade pipx
python -m pipx ensurepath
pipx install uv --global
如果你使用 Homebrew、Scoop 等其他方式,请查看完整的 uv 安装指南。
安装完成后验证:
uv --version
先选择合适的部署方式
- 最快上手:API 代理模型(OpenAI、DeepSeek、Qwen、SiliconFlow)—— 不需要 GPU
- 注重隐私的本地部署:Ollama —— 本地模型运行时,可选 GPU
- 高性能本地推理:vLLM 或 HuggingFace GPU 方案 —— 需要 NVIDIA GPU
可选环境(按部署方式决定)
用于 Web UI 开发
| 依赖项 | 版本 | 检查命令 |
|---|---|---|
| Node.js | 18 或更高 | node --version |
| npm | 8 或更高 | npm --version |
用于本地模型部署
| 依赖项 | 说明 |
|---|---|
| NVIDIA GPU | GPU 推理推荐 CUDA 12.1+ |
| CUDA Toolkit | 使用 vLLM 或 HuggingFace GPU 推理时需要 |
| 足够的显存 | 7B 模型建议 8 GB+,13B+ 模型建议 24 GB+ |
信息
如果你只使用 API 代理模型(OpenAI、DeepSeek 等),不需要 GPU,CPU 机器即可运行。
用于 Docker 部署
| 依赖项 | 版本 | 检查命令 |
|---|---|---|
| Docker | 20.10+ | docker --version |
| Docker Compose | 2.0+ | docker compose version |
| NVIDIA Container Toolkit | 最新版(仅 GPU 场景) | nvidia-smi |
系统资源建议
| 部署类型 | CPU | 内存 | 磁盘 |
|---|---|---|---|
| 仅 API 代理 | 2 核 | 4 GB | 10 GB |
| 本地 7B 模型 | 4 核 | 16 GB | 30 GB |
| 本地 13B+ 模型 | 8 核 | 32 GB | 60 GB |
网络注意事项(中国区)
如果你在中国大陆,建议配置 PyPI 镜像以加快依赖下载:
# 将镜像地址设置为环境变量
echo "export UV_INDEX_URL=https://pypi.tuna.tsinghua.edu.cn/simple" >> ~/.bashrc
source ~/.bashrc
或者在 uv sync 命令中附加 --index-url:
uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--index-url=https://pypi.tuna.tsinghua.edu.cn/simple
下一步
准备好了?前往 快速开始 按 5 分钟流程完成安装。