vscode使用ollama本地模型
· 阅读需 1 分钟
- 在
vscode里面安装Continue插件 - 安装
Ollama,并安装本地模型,启动服务 - 注册
OpenRouter,获取API Key - 配置
Continue插件
一个开源统一 API 平台与 LLM 聚合器,让你通过单一标准化接口访问来自全球 60 + 供应商的500 + 大模型
查看所有标签vscode 里面安装 Continue 插件Ollama,并安装本地模型,启动服务OpenRouter,获取 API KeyContinue 插件