跳到主要内容
版本:dev

SiliconFlow

配置 DB-GPT 使用 SiliconFlow 托管模型 API。SiliconFlow 提供统一 API,可接入多种开源模型,并且服务位于国内环境中。

前置条件

安装依赖

uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"

配置方式

编辑 configs/dbgpt-proxy-siliconflow.toml

[models]
[[models.llms]]
name = "Qwen/Qwen2.5-Coder-32B-Instruct"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"

[[models.embeddings]]
name = "BAAI/bge-large-zh-v1.5"
provider = "proxy/openai"
api_url = "https://api.siliconflow.cn/v1/embeddings"
api_key = "${env:SILICONFLOW_API_KEY}"

[[models.rerankers]]
name = "BAAI/bge-reranker-v2-m3"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"
提示

建议使用环境变量:

export SILICONFLOW_API_KEY="your-siliconflow-api-key"

可用模型

SiliconFlow 托管了很多开源模型,常见可选模型包括:

模型配置名说明
Qwen2.5-Coder-32BQwen/Qwen2.5-Coder-32B-Instruct偏代码场景
Qwen2.5-72BQwen/Qwen2.5-72B-Instruct通用用途
DeepSeek-V3deepseek-ai/DeepSeek-V3推理能力强
GLM-4-9BTHUDM/glm-4-9b-chat中英文兼顾
信息

最新模型列表和价格请参考 SiliconFlow 官方页面

特性

SiliconFlow 配置还支持 reranker,用于增强 RAG 检索效果:

[[models.rerankers]]
name = "BAAI/bge-reranker-v2-m3"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"

启动服务

uv run dbgpt start webserver --config configs/dbgpt-proxy-siliconflow.toml

故障排查

问题解决方法
鉴权失败检查 SiliconFlow API key 是否正确
模型不可用查看 SiliconFlow 当前支持的模型列表
响应较慢大模型通常延迟更高,属于正常现象

下一步