今天给大家分享deepseek的本地部署教程

一、部署Ollama(多平台选择安装)

Ollama 支持 Linux/macOS/Windows,需根据系统选择安装方式。

1. Linux 系统部署

适用系统:Ubuntu/Debian/CentOS 等

步骤

  1. 一键安装

    curl -fsSL https://ollama.com/install.sh | sh
    
    
  2. 权限配置(避免 sudo 运行):

    sudo usermod -aG ollama $USER  # 将当前用户加入ollama组newgrp ollama                  # 刷新用户组
    
    
  3. 启动服务

    systemctl start ollama         # 启动服务systemctl enable ollama        # 开机自启
    
    
  4. 验证安装

    ollama --version               # 输出版本号即成功
    
    
2. macOS 系统部署

步骤

  1. 一键安装

    curl -fsSL https://ollama.com/install.sh | sh
    
    
  2. 启动服务

    ollama serve                   # 前台运行(调试用)
    
    
    • 或通过 Launchd 后台服务:

      brew services start ollama  # 通过Homebrew管理
      
      
3. Windows 系统部署

前置要求

  • Windows 10/11 64位
  • 已安装 WSL2(推荐Ubuntu发行版)

步骤

  1. 下载安装包:Ollama Windows Installer

  2. 下载后进行双击安装

  3. 验证安装

    ollama list                    # 查看已安装模型
    
    

img

💬

如何配置远程 Ollama 服务?

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:

如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量:

  • 调用 systemctl edit ollama.service 编辑 systemd 服务配置。这将打开一个编辑器。
  • 在 [Service] 部分下为每个环境变量添加一行 Environment:
[Service]Environment="OLLAMA_HOST=0.0.0.0"Environment="OLLAMA_ORIGINS=*"


  • 重新加载 systemd 并重启 Ollama:
systemctl daemon-reloadsystemctl restart ollama


二、拉取并运行DeepSeek模型

官方模型库参考:Ollama DeepSeek-R1 页面

img

1. 拉取模型
ollama pull deepseek-r1          # 官方推荐模型名称


  • 模型规格选项(按需选择):

    ollama pull deepseek-r1:7b     # 7B参数基础版ollama pull deepseek-r1:33b    # 33B参数进阶版(需更高显存)
    
    
    

img

2. 运行模型
ollama run deepseek-r1


验证交互

>>> 你好,请用中文回答你好!我是DeepSeek-R1,很高兴为您提供帮助!


三、不同硬件场景配置说明

根据硬件资源选择运行模式:

场景1:纯CPU运行

适用情况:无独立显卡或显存不足

配置优化

  1. 限制线程数(避免资源耗尽):

    OLLAMA_NUM_THREADS=4 ollama run deepseek-r1  # 限制4线程
    
    
    
  2. 使用量化模型(减少内存占用):

    ollama pull deepseek-r1:7b-q4_0             # 4-bit量化版
    
    
    
  3. 内存要求

    • 7B模型:至少8GB空闲内存
    • 33B模型:至少32GB空闲内存
场景2:CPU+GPU混合运行

适用情况:有NVIDIA显卡(需CUDA支持)

配置步骤

  1. 安装驱动

    • 安装 NVIDIA驱动 和 CUDA Toolkit 12.x
  2. 启用GPU加速

    ollama run deepseek-r1 --gpu              # 强制使用GPU
    
    
    
  3. 显存要求

    • 7B模型:至少6GB显存
    • 33B模型:至少20GB显存
  4. 性能监控

    nvidia-smi               # 查看GPU利用率
    
    
    
四、AI问答应用接入本地大模型
方式1:部署MaxKB并接入Ollama

img

1. 通过Docker部署MaxKB
docker run -d \  --name=maxkb \  -p 8080:8080 \  -v ~/maxkb_data:/var/lib/postgresql/data \  1panel/maxkb:latest


  • 访问 http://localhost:8080,默认账号密码 admin/MaxKB@123…
2. 配置Ollama模型接入
  1. 进入MaxKB控制台模型管理 > 添加模型

  2. 填写参数

    • 模型类型:Ollama
    • 模型名称:DeepSeek-r1
    • Base URL:http://ollama主机ip:11434(Docker内访问宿主机)
    • 模型名称:deepseek-r1(与Ollama拉取的模型名一致)

img

3. 创建应用并测试问答功能

img

img

方式2:本地安装chatBox AI并接入本地大模型
1、下载安装包
  1. 访问 GitHub Releases 页面:ChatBox Releases!ChatBox Releases页面
  2. 选择 Windows 版本
2、安装 ChatBox
  1. 运行安装程序

    • 双击下载的 .exe 文件,按提示完成安装。
3、基础配置
3.1. 连接 本地模型
  1. 确保 Ollama 服务已运行。

  2. 在 ChatBox 设置中选择 ollama api,填写:

    • API Endpoint: http://localhost:11434
    • API Key: 留空
    • Model Name: deepseek-r1(与 Ollama 模型名称一致)

img

img

3.2 可以自定义界面

img

3.3 验证使用

img
在这里插入图片描述

五、常用的故障排查方法
1. Ollama服务无法启动
  • 日志查看

    journalctl -u ollama -f   # Linux
    
    
    
  • 端口冲突:修改Ollama端口:

    OLLAMA_HOST=0.0.0.0:11435 ollama serve  # 指定新端口
    
    
    
2. 模型加载失败
  • 重新初始化

    ollama rm deepseek-r1 && ollama pull deepseek-r1
    
    
    
3. MaxKB连接超时
  • 检查网络

    curl http://ollama-ip:11434  # 确认Ollama API可达
    
    
    
  • 跨域问题:在Ollama启动时添加:

    OLLAMA_ORIGINS="*" ollama serve
    
    
    
六、性能优化建议
场景 推荐配置
CPU模式 使用
GPU模式 启用
七、AI服务器性能监控

我使用zabbix+grafana对服务器做了资源使用情况的监控,因为我的服务器没有GPU,全部使用CPU去跑,当我运行大模型的时候,可以看到服务器资源站哟比较高(目前我测试用的的Deepseek-r1:7b)

img

img

img

DeepSeek无疑是2025开年AI圈的一匹黑马,在一众AI大模型中,DeepSeek以低价高性能的优势脱颖而出。DeepSeek的上线实现了AI界的又一大突破,各大科技巨头都火速出手,争先抢占DeepSeek大模型的流量风口。

DeepSeek的爆火,远不止于此。它是一场属于每个人的科技革命,一次打破界限的机会,一次让普通人也能逆袭契机。

DeepSeek的优点

read-normal-img

掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。现在越来越多的人才都想往大模型方向转行,对于想要转行创业,提升自我的人来说是一个不可多得的机会。

那么应该如何学习大模型

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。

read-normal-img

掌握大模型技术你还能拥有更多可能性:

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把都打包整理好,希望能够真正帮助到大家。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐