网上搜索本地化部署deepseek的教程,大概率都能看到ollama,到底他们之间有什么关系呢?

OllamaDeepSeek之间的关系是依赖关系‌。DeepSeek在本地部署时需要依赖Ollama(即OLama),因为Ollama负责处理模型的加载和管理,确保模型能够快速响应请求。‌1

Ollama的作用

Ollama是一个轻量级的大型语言模型(LLM)软件引擎,用于快速部署和运行大型语言模型。它负责模型的加载和服务器端的推理,确保模型能够快速响应请求。

本地部署DeepSeek时需要Ollama的原因

在本地部署DeepSeek时,需要安装和配置Ollama,因为它负责以下任务:

  1. 模型文件的解析和加载‌:Ollama负责解析和加载DeepSeek所需的模型文件。
  2. 本地服务器端的推理逻辑‌:Ollama处理服务器端的推理逻辑,确保模型能够快速响应请求。

本地部署DeepSeek的基本步骤(以windows系统为例)

  1. 安装Ollama‌:去官网下载Ollama
  2. 双击第一步下载的OllamaSetup.exe,直接安装即可,大概会占用4.5GB空间。 

    默认安装在C盘,路径默认为: C:\Users\用户名\AppData\Local   C:\Users\用户名\AppData\Local\Programs\Ollama

  3. 配置Ollama‌:设置环境变量,例如设置模型路径等。
  4. 启动DeepSeek服务器‌:使用Ollama的命令启动DeepSeek服务器,并通过标准输入输出接收请求。
  5. 验证部署‌:通过发送HTTP请求测试DeepSeek是否成功运行
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐