跳到主要内容
版本:dev

源码部署

直接通过源码部署 DB-GPT。这是最灵活的方式,适合开发、调试以及自定义集成场景。

硬件要求

模式CPU × 内存GPU说明
API proxy4C × 8 GB代理模式不使用本地 GPU
Local model8C × 32 GB≥ 24 GB VRAM需要支持 CUDA 的 NVIDIA GPU

第一步:克隆仓库

git clone https://github.com/eosphoros-ai/DB-GPT.git
cd DB-GPT

第二步:安装 uv

curl -LsSf https://astral.sh/uv/install.sh | sh

验证:

uv --version

第三步:安装依赖

uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"
使用交互式安装辅助工具

DB-GPT 提供了一个交互式辅助工具,用于生成合适的 uv sync 命令:

uv run install_help.py install-cmd --interactive

或者列出所有可用的 extras:

uv run install_help.py list

第四步:配置模型

编辑与你所选 provider 对应的 TOML 配置文件。详情请参考 Model Providers

编辑 configs/dbgpt-proxy-openai.toml

[models]
[[models.llms]]
name = "chatgpt_proxyllm"
provider = "proxy/openai"
api_key = "your-openai-api-key" # <-- 替换为你的 key

[[models.embeddings]]
name = "text-embedding-3-small"
provider = "proxy/openai"
api_key = "your-openai-api-key" # <-- 替换为你的 key
环境变量

你可以在 TOML 中使用 "${env:OPENAI_API_KEY}" 这样的写法从环境变量读取 key,而不是将密钥硬编码到文件里。

第五步:启动服务

uv run dbgpt start webserver --config configs/dbgpt-proxy-openai.toml

第六步:打开 Web UI

在浏览器中访问 http://localhost:5670

验证是否成功

如果 Web UI 能正常打开,且你可以发起聊天会话,就说明 DB-GPT 已成功运行。

首次运行常见问题

  • uv sync fails
    • 重新检查 Python 与 uv: Prerequisites
    • 如果你在中国大陆,可通过 UV_INDEX_URL 使用镜像源
  • Provider auth fails
    • 确认 configs/ 下所选 TOML 文件是否正确
    • 参考对应 provider 指南:Model Providers
  • Server starts but UI is blank
    • 确认终端中服务已正常启动且没有报错
    • 检查是否有其他进程占用了 5670 端口

数据库配置

SQLite 是默认选项,相关表会自动创建,无需额外配置。

[service.web.database]
type = "sqlite"
path = "pilot/meta_data/dbgpt.db"

加载测试数据(可选)

# Linux / macOS
bash ./scripts/examples/load_examples.sh

# Windows
.\scripts\examples\load_examples.bat

单独运行前端(可选)

如果你需要进行前端开发或自定义 UI:

cd web && npm install
cp .env.template .env
# 编辑 .env,将 API_BASE_URL 设为 http://localhost:5670
npm run dev

Open http://localhost:3000.

下一步

主题链接
配置更多模型提供方Model Providers
使用 Docker 部署Docker
以集群方式部署Cluster
了解 Web UIWeb UI Guide