Ollama
配置 DB-GPT 使用 Ollama 在本地运行模型。Ollama 是在个人机器上部署开源模型最简单的方式之一。
前置条件
- 已安装并启动 Ollama
- 已安装带
proxy_ollama扩展的 DB-GPT
安装 Ollama
- macOS
- Linux
- Windows
# Download from https://ollama.ai or use Homebrew:
brew install ollama
curl -fsSL https://ollama.ai/install.sh | sh
Download the installer from ollama.ai.
拉取模型
# 拉取聊天模型
ollama pull deepseek-r1:1.5b
# 拉取 embedding 模型
ollama pull bge-m3:latest
提示
使用 ollama list 可以查看已下载模型。
安装 DB-GPT 依赖
uv sync --all-packages \
--extra "base" \
--extra "proxy_ollama" \
--extra "rag" \
--extra "storage_chromadb" \
--extra "dbgpts"
配置方式
编辑 configs/dbgpt-proxy-ollama.toml:
[models]
[[models.llms]]
name = "deepseek-r1:1.5b"
provider = "proxy/ollama"
api_base = "http://localhost:11434"
api_key = ""
[[models.embeddings]]
name = "bge-m3:latest"
provider = "proxy/ollama"
api_url = "http://localhost:11434"
api_key = ""
信息
对于本地 Ollama,api_key 可以留空。如果 Ollama 运行在另一台机器上,则需要把 api_base 改成对应地址。