vscode使用ollama本地模型
· 阅读需 1 分钟
- 在
vscode里面安装Continue插件 - 安装
Ollama,并安装本地模型,启动服务 - 注册
OpenRouter,获取API Key - 配置
Continue插件
OpenRouter模型列表中搜索free可以使用免费的模型,按照下面的xiaomi/mimo-v2-flash:free配置使用。
name: Local Config
version: 1.0.0
schema: v1
models:
- name: Qwen2.5-Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b-base
roles:
- autocomplete
- name: xiaomi/mimo-v2-flash:free
provider: openai
model: xiaomi/mimo-v2-flash:free
roles:
- chat
- autocomplete
- edit
- apply
- embed
- rerank
apiBase: https://openrouter.ai/api/v1
apiKey: sk-or-v1-9f272fe29885decee6f450114949dcb7a8548faf3b0068892b00c528d163c6xx