VSCode + Ollama + Qwen3

本文简单记录VSCode+Ollama+Qwen3的配置

1. 安装Ollama并启动

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。它提供了便捷的模型管理、丰富的预建模型库,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。Ollama 允许用户在本地机器上拉取、管理和运行大模型,并提供多种访问方式,包括本地 CLI 和 HTTP 接口

在Mac上,直接使用homebrew安装ollama:

1
brew install ollama

接着,使用命令启动:

1
brew services start ollama

2. 拉取Qwen3

我的电脑是16GB内存的Macbook M2,所以选择qwen3:8b模型

1
ollama run qwen3:8b

3. 配置VSCode

安装Cline插件

接着,进行配置:

  • API Provider: Ollama
  • Model: qwen3:8b

其他均默认即可

在侧边栏点击Cline的icon,进入Cline界面,就可以对话了。启动的时候确保ollama在运行即可

结语

经过测试,发现速度太慢了,还是别用了,就当玩了。可以安装一个通义灵码的插件,目前免费使用满血版qwen3模型.

本文使用CC BY-NC-SA 4.0协议进行许可