SiliconFlow
配置 DB-GPT 使用 SiliconFlow 托管模型 API。SiliconFlow 提 供统一 API,可接入多种开源模型,并且服务位于国内环境中。
前置条件
- 一个可用的 SiliconFlow API key
- 已安装带
proxy_openai扩展的 DB-GPT
安装依赖
uv sync --all-packages \
--extra "base" \
--extra "proxy_openai" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"
配置方式
编辑 configs/dbgpt-proxy-siliconflow.toml:
[models]
[[models.llms]]
name = "Qwen/Qwen2.5-Coder-32B-Instruct"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"
[[models.embeddings]]
name = "BAAI/bge-large-zh-v1.5"
provider = "proxy/openai"
api_url = "https://api.siliconflow.cn/v1/embeddings"
api_key = "${env:SILICONFLOW_API_KEY}"
[[models.rerankers]]
name = "BAAI/bge-reranker-v2-m3"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"
提示
建议使用环境变量:
export SILICONFLOW_API_KEY="your-siliconflow-api-key"
可用模型
SiliconFlow 托管了很多开源模型,常见可选模型包括:
| 模型 | 配置名 | 说明 |
|---|---|---|
| Qwen2.5-Coder-32B | Qwen/Qwen2.5-Coder-32B-Instruct |