介绍
大型语言模型 (LLM) 正在彻底改变我们与计算机的交互方式,它们在编码中的应用尤其令人兴奋。DeepSeek R1 以其类似于其他强大模型的强大推理能力而闻名,提供了一个引人注目的选择。更好的是,DeepSeek R1 的提炼版本,如 7B、8B、32B 和 70B 参数模型,可以使用 Ollama 在本地运行。将其与开源编程代理 VS Code 扩展 Cline 相结合,您将拥有强大的本地编码设置。这篇文章将向您展示如何作。
DeepSeek R1 和 Ollama:本地强国
DeepSeek R1 是一款功能强大的 LLM,具有令人印象深刻的推理能力。虽然最大的版本需要大量资源,但提炼版本旨在在消费类硬件上高效运行。Ollama 简化了在本地运行这些模型的过程。它提供了一种下载、管理和提供 LLM 的简化方式,包括 DeepSeek R1。这意味着您可以直接在计算机上运行强大的编码助手,而无需依赖云服务。
要开始使用,您需要:
- 安装 Ollama:按照 Ollama 网站上适用于您的作系统的说明进行作。
- 下载 DeepSeek R1:转到 Ollama 上的 DeepSeek R1 模型页面,下载你想在本地机器上运行的版本(例如,7B、8B、32B 或 70B)。
- 使用 Ollama 运行 DeepSeek R1:使用命令启动模型。 例如:
ollama run
ollama run deepseek-r1
Cline:您当地的编码代理
Cline 是一个开源的 VS Code 扩展,充当编程代理。它可以规划和执行复杂的编程任务,显著提高开发人员的工作效率。Cline 可以利用 LLM 来理解自然语言指令并将其转换为代码。至关重要的是,Cline 可以配置为使用 Ollama 的本地 LLM 而不是 Ollama 的 OpenAI API 兼容性。
Cline 可以使用兼容 OpenAI 的连接器与 Ollama 通信。Ollama 在 上公开了一个与 OpenAI 兼容的 API,Cline 可以使用该 API。在 Cline 的设置中,您需要将其配置为指向此地址。这会告诉 Cline 通过 Ollama 使用您本地运行的 DeepSeek R1 实例。http://127.0.0.1:11434/v1
以下是这些步骤的一般概述:
- 安装 Cline:从 VS Code 市场安装 Cline 扩展。
- 配置 Cline:在 VS Code 中打开 Cline 的设置。
- 选择 Provider (提供商):在 Cline 的设置中选择 as API provider (作为 API 提供商)。
OpenAI Compatible
- 设置 API 端点:将 API 设置更改为 .这会将 Cline 定向到您的本地 Ollama 服务器。
Base URL
http://127.0.0.1:11434/v1
- (可选)API 密钥:您可能不需要本地 Ollama 的 API 密钥,但如果 Cline 需要 API 密钥,您通常可以使用占位符,例如或任何其他短字符串。Ollama 不会验证它。
ollama_key
- 型号 ID:请指定您使用 Ollama 运行的型号 ID,例如 .
deepseek-r1:8b
本地的力量
使用 Ollama 在本地运行 DeepSeek R1 并将其与 Cline 一起使用具有几个优势:
- 隐私: 您的代码和提示将保留在本地计算机上。
- 速度: 本地处理可能比依赖远程服务器更快,尤其是对于复杂的任务。
- 经济高效:您可以避免与使用基于云的 LLM API 相关的成本。
- 离线访问:即使没有互联网连接,您也可以工作。
结论
通过结合 DeepSeek R1、Ollama 和 Cline 的强大功能,您可以创建一个真正本地且强大的编码环境。这种设置允许您利用 LLM 的最新进展来提供编码帮助,同时保持隐私、速度和成本效益。随着 LLM 的不断发展,像这样的本地解决方案对开发人员来说将变得越来越重要。尝试不同的 DeepSeek R1 模型大小,以找到最适合您的性能和资源使用之间的平衡。今天就开始构建令人惊叹的东西吧!