跳到主要内容
版本:dev

模型问题

这里汇总了模型配置、加载和推理过程中常见的问题。

API Key 错误

现象: 401 UnauthorizedInvalid API keyAuthentication failed

解决方法:

  1. 确认你的 API Key 已在 TOML 配置中正确设置:
[[models.llms]]
api_key = "sk-..." # 必须为有效的 key
  1. 或者使用环境变量:
[[models.llms]]
api_key = "${env:OPENAI_API_KEY}"
export OPENAI_API_KEY="sk-your-actual-key"
  1. 确认该 Key 在服务提供方侧拥有足够权限,并且账户余额或额度正常。

找不到模型

现象: Model 'xxx' not foundNo model registered

解决方法:

  1. 检查配置中的模型名称是否符合服务提供方要求的格式:
Provider示例名称
OpenAIchatgpt_proxyllm, gpt-4o
DeepSeekdeepseek-chat, deepseek-reasoner
Ollamaqwen2.5:latest(需先拉取)
HuggingFaceTHUDM/glm-4-9b-chat-hf
  1. 对于 Ollama,请确认模型已经下载:
ollama pull qwen2.5:latest
ollama list # 确认列表中已存在
  1. 对于集群部署,确认 worker 已注册:
dbgpt model list

Ollama 连接被拒绝

现象: 使用 Ollama provider 时出现 Connection refused

解决方法:

  1. 确认 Ollama 服务已启动:
ollama serve
# 或检查:curl http://localhost:11434/api/tags
  1. 如果 DB-GPT 运行在 Docker 中,请不要使用 localhost,而应改为宿主机地址:
[[models.llms]]
api_base = "http://host.docker.internal:11434" # Docker for Mac/Windows
# 或使用宿主机的实际 IP 地址

内存不足(OOM)

现象: CUDA out of memoryRuntimeError: CUDA error

解决方法:

  1. 改用更小的模型:
[[models.llms]]
name = "Qwen2.5-Coder-0.5B-Instruct" # 更小的模型
  1. 启用量化:
dbgpt start worker --model_name ... --load_4bit
  1. 限制 GPU 使用:
CUDA_VISIBLE_DEVICES=0 uv run dbgpt start webserver ...
  1. 或切换为 API 代理模式(无需本地 GPU):
[[models.llms]]
provider = "proxy/openai" # 使用远程 API,而不是本地 GPU

模型响应过慢

现象: 响应时间很长,或者发生超时。

可能原因及解决方法:

原因解决方法
首次运行时模型仍在下载等待下载完成(查看日志)
GPU 显存不足使用量化或更小的模型
到 API 的网络较慢检查与服务端点的连通性
上下文窗口过大在配置中降低 max_context_size

Embedding 模型错误

现象: Embedding model not found,或知识库相关操作失败。

解决方法:

  1. 确认已配置 Embedding 模型:
[[models.embeddings]]
name = "text-embedding-3-small"
provider = "proxy/openai"
api_key = "your-key"
  1. 对于 HuggingFace Embedding,请确认模型已下载或可访问:
[[models.embeddings]]
name = "BAAI/bge-large-zh-v1.5"
provider = "hf"
# path = "/path/to/local/model" # 可选:本地模型路径
  1. 如果使用本地 HuggingFace Embedding,请安装对应 extra:
uv sync --all-packages --extra "hf" --extra "cpu" ...

Reranker 不生效

现象: 启用 reranker 后,RAG 效果没有改善。

解决方法:

确认在 TOML 中已配置 reranker:

[[models.rerankers]]
name = "BAAI/bge-reranker-base"
provider = "hf"

或者使用 SiliconFlow:

[[models.rerankers]]
name = "BAAI/bge-reranker-v2-m3"
provider = "proxy/siliconflow"
api_key = "${env:SILICONFLOW_API_KEY}"

还是没解决?