欢迎来到关于本地部署DeepSeek R1模型的详细教程!本文将指导您如何在自己的电脑上设置并运行这个强大的AI模型,享受隐私保护、零成本使用的优势。
为什么选择本地部署?
在本地运行AI模型如DeepSeek R1具有多个显著优势:
- 隐私保护:您的所有数据都保存在您的设备上,避免了共享敏感信息的风险。
- 成本效益:DeepSeek R1可以免费使用,无需任何订阅或使用费。
- 控制自由:无需依赖外部服务,您可以自由进行模型的微调和实验。
第一步:安装Ollama
Ollama是我们在本地运行DeepSeek R1所依赖的工具,它为用户提供了一个简便的环境来管理和部署AI模型。
- 访问Ollama官网:前往Ollama的官方网站,根据您的操作系统(macOS、Linux或Windows)选择并下载相应的安装包。
- 安装Ollama:
- 对于macOS用户:请确保您的系统是macOS 11 Big Sur或更新版本。
- 下载后,按照官网提供的安装指南进行安装。

第二步:拉取DeepSeek R1模型
Ollama支持DeepSeek R1的多种版本,选择适合您硬件资源的版本:
- 1.5B – 最小的版本,适合资源有限的设备。
- 8B, 14B, 32B – 中等规模,提供较好的性能。
- 70B – 最大的版本,提供最高的智能程度,但需要强大的GPU支持。

- 打开终端:
- macOS用户:使用command + space打开Spotlight搜索,输入terminal并回车。
- Windows用户:按Win + R,输入cmd并回车,或通过Win + X选择“命令提示符”。
- 执行命令拉取模型:
- 对于1.5B版本:输入ollama run deepseek-r1:1.5b并回车。
- 如果遇到错误,请尝试:ollama run deepseek-r1。
注意:模型下载可能需要一些时间,具体取决于您的网络速度。

第三步:安装并配置Chatbox
虽然通过终端可以与DeepSeek R1进行交互,但为了更友好的用户体验,我们推荐使用Chatbox,这是一个专为本地AI模型设计的桌面客户端。
- 下载Chatbox:访问Chatbox的官网(https://chatboxai.app/en#),下载并安装中文版。
- 配置Chatbox:
- 打开Chatbox,选择配置API模型为“Ollama API”。
- 将API主机设置为:http://127.0.0.1:11434。
- 选择DeepSeek R1作为活动模型。
- 保存配置。


第四步:运行和测试DeepSeek R1
配置完成后,您就可以开始与DeepSeek R1进行互动了。
- 运行模型:在Chatbox中,您现在可以直接与DeepSeek R1对话。
- 测试模型:为了验证模型的功能,您可以尝试让它完成一些任务。例如,让它用Python编写一个吃豆人的游戏代码:
- 在Chatbox中输入提示词:Make a Pac-Man game in Python,然后观察模型的输出。
总结
通过以上步骤,您已经成功地在本地部署了DeepSeek R1,这不仅保护了您的隐私,还让您免费享受了强大的AI能力。无论您是AI爱好者、开发者,还是只是对本地AI感兴趣的人,这都是一个开始探索和利用AI技术的好方法。利用Ollama和Chatbox这样的工具,部署过程变得简单而高效。
如果您在部署过程中遇到任何问题,或想要进一步了解更多细节,请参考相关链接或社区资源。祝您在AI探索之旅中一切顺利!
发表回复