
01
引言
本文将告诉大家如何在本地安装和运行 DeepSeek,用 CodeGPT 对其进行配置,并开始利用AI来增强软件开发工作流程,而无需依赖基于云端的服务。
闲话少说,我们直接开始吧!
02
要在本地运行 DeepSeek,我们首先需要安装 Ollama 和 CodeGPT,前者可以让我们在机器上运行 LLM,后者是 VSCode 的扩展,可以集成这些模型,为编码提供帮助。
-
安装 Ollama
-
访问官方网站:https://ollama.com

-
下载适用于你的操作系统(Windows、macOS 或 Linux)的安装程序。 -
安装完成后,进行如下验证。需打开终端并运行如下命令:
ollama --version
如果 Ollama 安装正确,它将显示已安装的版本。
安装 CodeGPT
-
打开 VSCode 并导航至扩展市场(MacOS 上为 Ctrl + Shift + X 或 Cmd + Shift + X)。 -
搜索 "CodeGPT "并点击安装。
03
-
Chat model: deepseek-r1:1.5b:针对较小的硬件环境进行了优化,可在大多数电脑上流畅运行。 -
Autocompletion model: deepseek-coder:1.3b. 该模型采用 Fill-In-The-Middle (FIM) 技术,可在大家在编写代码时提供智能自动补全的建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。
-
下载聊天模型:
-
在 VSCode 中打开 CodeGPT。 -
导航到侧边栏中的 Local LLMs 部分。 -
从可用选项中,选择 Ollama 作为本地 LLM 运行器。 -
选择模型 deepseek-r1:1.5b。 -
点击下载按钮。模型将开始自动下载。
/fix - 用于修正错误或对代码提出改进建议。
/refactor - 用于改进代码结构。
/Explain - 获取任何代码的详细解释。
-
下载代码自动补全模型:
-
在 VSCode 中打开终端。 -
运行以下命令提取 deepseek-coder:1.3b 模型:
ollama pull deepseek-coder:1.3b
此命令将把代码自动补全模型下载到本地计算机上。
下载完成后,返回 CodeGPT 并导航至Autocompletion Models(代码补全模型)部分。
从可用模型列表中选择 deepseek-coder:1.3b。
04
参考文档:https://medium.com/@dan.avila7/step-by-step-running-deepseek-locally-in-vscode-for-a-powerful-private-ai-copilot-4edc2108b83e
点击上方小卡片关注我
添加个人微信,进专属粉丝群!


