vscode使用ollama本地模型
· 阅读需 1 分钟
- 在
vscode里面安装Continue插件 - 安装
Ollama,并安装本地模型,启动服务 - 注册
OpenRouter,获取API Key - 配置
Continue插件
一个开源轻量级平台,让你能在本地设备上轻松运行、管理和与大型语言模型 (LLM) 交互,无需复杂配置,保障数据隐私与安全
查看所有标签vscode 里面安装 Continue 插件Ollama,并安装本地模型,启动服务OpenRouter,获取 API KeyContinue 插件