
零门槛本地部署AI模型:基于Ollama实现DeepSeek全攻略
DeepSeek通过解决复杂问题提升生活效率,而Ollama的本地化部署能力则让AI技术摆脱云端依赖,在隐私、成本、可控性之间取得平衡。这种组合尤其适合对数据安全有高要求的场景,同时也为边缘计算(Edge AI)的普及提供了可行路径。未来,随着模型小型化技术的进步,本地AI或将成为智能设备的标配功能,本文将详细介绍基于Ollama实现DeepSeek本地部署的详细流程。
DeepSeek通过解决复杂问题提升生活效率,而Ollama的本地化部署能力则让AI技术摆脱云端依赖,在隐私、成本、可控性之间取得平衡。这种组合尤其适合对数据安全有高要求的场景,同时也为边缘计算(Edge AI)的普及提供了可行路径。未来,随着模型小型化技术的进步,本地AI或将成为智能设备的标配功能,本文将详细介绍基于Ollama实现DeepSeek本地部署的详细流程。
快捷跳转到想要看的地方
一、引言
- 为什么选择本地部署? 隐私保护、离线使用、无网络延迟、自定义优化需求。
- Ollama的优势 轻量化、支持主流开源模型(如Llama 2、DeepSeek)、一键式部署、跨平台兼容。
- 本文价值 提供从零开始的DeepSeek本地部署指南,涵盖环境配置、模型优化及常见问题解决方案。
二、如何部署DeepSeek
1. Ollama的安装
点击下方download进行ollama安装包的下载
如果不希望安装到c盘下,可以使用补充中命令行方式进行安装
下载完成后点击安装包, 进入安装界面
通过win + R ,输入cmd,打开命令行窗口,输入
ollama -v
显示
表示ollama安装成功
2. DeepSeek模型安装
回到ollama官网,点击右上角的Models
这里我们选择安装deepseek-r1模型,点击模型界面进入具体详情页面
可以通过自己的实际情况安装对应的模型
我们点击复制按钮,将模型安装指令复制下来
win + R cmd 打开终端
将复制的安装指令右键粘贴,回车运行
等待安装完成,安装完成如下:
这里我们就已经完成了基于Ollama实现DeepSeek,可以做一个测试:
可见没有问题, 我们这里可以退出查看一下
输入/bye,退出交互页面
输入 ollama list ,可以查看当前存在的模型
可以使用ollama run deepseek:你部属的版本号再次唤起模型
三、补充
1. 使用命令行方式安装ollama(如果不希望安装在C盘下可以采用这个方法)
Ollama默认安装目录是C盘的用户目录,如果不希望安装在C盘的话(其实C盘如果足够大放C盘也没事),就不能直接双击安装了。需要通过命令行安装。
命令行安装方式如下:
在OllamaSetup.exe所在目录打开cmd命令行,然后命令如下:
OllamaSetup.exe /DIR=你要安装的目录位置
OK,安装完成后,还需要配置一个环境变量,更改Ollama下载和部署模型的位置。环境变量如下:
OLLAMA_MODELS=你想要保存模型的目录
环境变量配置方式相信学过Java的都知道,这里不再赘述,配置完成如图:
2.ollama常用指令
Ollama是一个模型管理工具,有点像Docker,而且命令也很像,比如:
ollama serve # Start ollama
ollama create # Create a model from a Modelfile
ollama show # Show information for a model
ollama run # Run a model
ollama stop # Stop a running model
ollama pull # Pull a model from a registry
ollama push # Push a model to a registry
ollama list # List models
ollama ps # List running models
ollama cp # Copy a model
ollama rm # Remove a model
ollama help # Help about any command
更多推荐
所有评论(0)