一、选择 AI 代码补全模型
常见的本地 AI 代码补全模型:
- Code Llama(Meta) – 类似 Copilot,支持多种语言。
- StarCoder(BigCode) – 适用于 Python、JavaScript、C++ 等。
- Phi(Microsoft) – 轻量级,适合本地运行。
- Deepseek-Coder(DeepSeek) – 性能较强。
- Mistral(Mistral AI) – 小型高效模型,支持代码补全。
二、安装本地 AI 模型
1. 安装 Ollama
下载并安装 Ollama:Ollama 官网
ollama list
2. 下载 AI 代码补全模型
例如,下载 Code Llama:
ollama pull codellama
或 Deepseek-Coder:
ollama pull deepseek-coder
3. 运行本地 AI
ollama run codellama
三、集成到 VS Code / Cursor / WindSurf
1. VS Code(Code GPT 插件)
安装 Code GPT 插件,并在 settings.json
里配置:
{
"codegpt.model": "http://localhost:11434/api/generate"
}
2. Cursor
在 Settings > AI Provider 中选择 Custom API,并设置 http://localhost:11434/api/generate
。
3. WindSurf
WindSurf 也支持本地 AI,在 Settings 里手动设置 API 地址即可。
四、优化 AI 运行速度
- 如果有 NVIDIA 显卡,可安装 CUDA 11.8 并使用
--device cuda
加速。 - 使用小型模型(如
ollama run codellama:7b
)降低内存占用。 - 开启 KV 缓存:
ollama run deepseek-coder --kv-cache
五、结论
通过 Ollama 运行本地 AI 代码补全,并集成到 VS Code、Cursor 或 WindSurf,就可以享受像 Copilot 一样的 AI 辅助编程体验。