在 Windows 本地部署 AI 代码补全模型并集成到 VS Code、Cursor、WindSurf

一、选择 AI 代码补全模型

常见的本地 AI 代码补全模型:

  • Code Llama(Meta) – 类似 Copilot,支持多种语言。
  • StarCoder(BigCode) – 适用于 Python、JavaScript、C++ 等。
  • Phi(Microsoft) – 轻量级,适合本地运行。
  • Deepseek-Coder(DeepSeek) – 性能较强。
  • Mistral(Mistral AI) – 小型高效模型,支持代码补全。

二、安装本地 AI 模型

1. 安装 Ollama

下载并安装 Ollama:Ollama 官网

ollama list

2. 下载 AI 代码补全模型

例如,下载 Code Llama:

ollama pull codellama

或 Deepseek-Coder:

ollama pull deepseek-coder

3. 运行本地 AI

ollama run codellama

三、集成到 VS Code / Cursor / WindSurf

1. VS Code(Code GPT 插件)

安装 Code GPT 插件,并在 settings.json 里配置:

{
    "codegpt.model": "http://localhost:11434/api/generate"
}

2. Cursor

在 Settings > AI Provider 中选择 Custom API,并设置 http://localhost:11434/api/generate

3. WindSurf

WindSurf 也支持本地 AI,在 Settings 里手动设置 API 地址即可。

四、优化 AI 运行速度

  • 如果有 NVIDIA 显卡,可安装 CUDA 11.8 并使用 --device cuda 加速。
  • 使用小型模型(如 ollama run codellama:7b)降低内存占用。
  • 开启 KV 缓存:
    ollama run deepseek-coder --kv-cache

五、结论

通过 Ollama 运行本地 AI 代码补全,并集成到 VS Code、Cursor 或 WindSurf,就可以享受像 Copilot 一样的 AI 辅助编程体验。

本条目发布于。属于软件分类,被贴了 标签。作者是

关于有个狸

2005年开始的一名站长,从事网站策划、运营,早期一批扎根阿里妈妈、Google Adsense的一员,目前司职前端与产品设计。

发表回复