DeepSeek通过解决复杂问题提升生活效率,而Ollama的本地化部署能力则让AI技术摆脱云端依赖,在隐私、成本、可控性之间取得平衡。这种组合尤其适合对数据安全有高要求的场景,同时也为边缘计算(Edge AI)的普及提供了可行路径。未来,随着模型小型化技术的进步,本地AI或将成为智能设备的标配功能,本文将详细介绍基于Ollama实现DeepSeek本地部署的详细流程。

一、引言

  • 为什么选择本地部署? 隐私保护、离线使用、无网络延迟、自定义优化需求。
  • Ollama的优势 轻量化、支持主流开源模型(如Llama 2、DeepSeek)、一键式部署、跨平台兼容。
  • 本文价值 提供从零开始的DeepSeek本地部署指南,涵盖环境配置、模型优化及常见问题解决方案。

二、如何部署DeepSeek

1. Ollama的安装

Ollama官方网址

在这里插入图片描述
点击下方download进行ollama安装包的下载

在这里插入图片描述
如果不希望安装到c盘下,可以使用补充中命令行方式进行安装

下载完成后点击安装包, 进入安装界面
在这里插入图片描述

在这里插入图片描述
通过win + R ,输入cmd,打开命令行窗口,输入

ollama -v

显示
在这里插入图片描述
表示ollama安装成功

2. DeepSeek模型安装

回到ollama官网,点击右上角的Models
在这里插入图片描述
在这里插入图片描述

这里我们选择安装deepseek-r1模型,点击模型界面进入具体详情页面
在这里插入图片描述
可以通过自己的实际情况安装对应的模型
在这里插入图片描述

我们点击复制按钮,将模型安装指令复制下来
在这里插入图片描述
win + R cmd 打开终端
将复制的安装指令右键粘贴,回车运行

在这里插入图片描述
等待安装完成,安装完成如下:
在这里插入图片描述
这里我们就已经完成了基于Ollama实现DeepSeek,可以做一个测试:
在这里插入图片描述
可见没有问题, 我们这里可以退出查看一下

输入/bye,退出交互页面
在这里插入图片描述
输入 ollama list ,可以查看当前存在的模型

在这里插入图片描述

可以使用ollama run deepseek:你部属的版本号再次唤起模型

在这里插入图片描述

三、补充

1. 使用命令行方式安装ollama(如果不希望安装在C盘下可以采用这个方法)

Ollama默认安装目录是C盘的用户目录,如果不希望安装在C盘的话(其实C盘如果足够大放C盘也没事),就不能直接双击安装了。需要通过命令行安装。

命令行安装方式如下:
在OllamaSetup.exe所在目录打开cmd命令行,然后命令如下:

OllamaSetup.exe /DIR=你要安装的目录位置

OK,安装完成后,还需要配置一个环境变量,更改Ollama下载和部署模型的位置。环境变量如下:

OLLAMA_MODELS=你想要保存模型的目录

环境变量配置方式相信学过Java的都知道,这里不再赘述,配置完成如图:
在这里插入图片描述

2.ollama常用指令

Ollama是一个模型管理工具,有点像Docker,而且命令也很像,比如:

 ollama serve      # Start ollama
  ollama create     # Create a model from a Modelfile
  ollama show       # Show information for a model
  ollama run        # Run a model
  ollama stop       # Stop a running model
  ollama pull       # Pull a model from a registry
  ollama push       # Push a model to a registry
  ollama list       # List models
  ollama ps         # List running models
  ollama cp         # Copy a model
  ollama rm         # Remove a model
  ollama help       # Help about any command
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐