DeepSeek是一款由国内人工智能公司研发的大型语言模型,拥有强大的自然语言处理能力,能够理解并回答问题,还能辅助写代码、整理资料和解决复杂的数学问题。

DeepSeek R1则像2023年初OpenAI的ChatGPT一样,让所有人真正感受到了这种震撼,这是DeepSeek R1出圈的非常重要的原因。当然震撼是可以看得到的,受中国人工智能初创公司——深度求索公司冲击,引发的美国人工智能主题股票以及纳斯达克综合指数大幅下跌。

以前如果说OpenAI是“大力出奇迹”,如今DeepSeek则是“小力也可以出奇迹”——小的算力用新的方法也能创造奇迹。不过个人认为这充其量算是傲慢者的懈怠,而不是最终的结果。

我们看看DeepSeek是如何谈Deepseek和OpenAI有什么不同的:

DeepSeek R1: 专注于特定领域的定制化AI解决方案,在垂直领域展示了AI的强大能力,推动了行业智能化。

OpenAI: 致力于通用人工智能,产品应用广泛,研究范围全面,通过广泛的技术应用和AGI愿景,展示了AI的深远影响。

d8084d10e7489d5662ce8fd3f1b27955.jpeg

关于DeepSeek R1、DeepSeek V2 和 DeepSeek V3的关系和区别,此前一直以为是不同时期的版本演进,后来才知道是同一系列的不同版本,主要区别在于性能、功能和优化。简而言之是:

  • R1:入门级,适合小型项目。

  • V2:中级,适合中型项目。

  • V3:高级,适合大型项目。

回到正题上吧!

第一步,先看一下本机适合部署什么样的DeepSeek R-1版本。

对比我的机型,我可以从1.5B适配到14B。

模型大小

参数量

显存需求 (GPU)

CPU 和内存需求

硬盘

适用场景

1.5B

15亿

2-4 GB

8 GB 内存

3GB+(1.5-2GB)

低资源设备部署(如树莓派、旧款笔记本)

实时文本生成(聊天机器人、简单问答)

嵌入式系统或物联网设备

7B

70亿

8-12 GB

16 GB 内存

8GB+(4-5GB)

本地开发测试(中小型企业)

中等复杂度 NLP  任务(文本摘要、翻译)

8B

80亿

10-16 GB

16-32 GB 内存

15GB+

需更高精度的轻量级任务(如代码生成、逻辑推理)

14B

140亿

16-24 GB

32 GB 内存

15GB+

企业级复杂任务(合同分析、报告生成)

长文本理解与生成(书籍/论文辅助写作)

32B

320亿

32-48 GB

64 GB 内存

30GB+

高精度专业领域任务(医疗/法律咨询)

多模态任务预处理(需结合其他框架)

70B

700亿

64 GB+

128 GB 内存

70GB+

科研机构/大型企业(金融预测、大规模数据分析)

高复杂度生成任务(创意写作、算法设计)

671B

6710亿

多 GPU (80  GB+)

256 GB+ 内存

300GB+

国家级/超大规模 AI  研究(如气候建模、基因组分析)

通用人工智能(AGI)探索

第二步,选择安装部署工具,一般推荐Ollama

Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。

官网地址是:https://ollama.com/

bc6493c8e316837adaab9caf65c043be.png

1、点击Download下载ollama

2、安装ollama即可,这个会默认安装在C盘上的,没法选择的。

3、点击DeepSeek-R1链接找到对deepseek-r1的支持情况

319f80ae676645503c080634a0450807.png

可以往下看看,其实不同大小的模型已经对应了不同下载和运行命令了

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

4、下载完成后会自动运行相关模型文件

890070713bdb191d9182bffb6660c264.png

第三步,更改ollama默认参数

‌Windows系统,Ollama下载的模型默认存储位置在C:\Users\<USERNAME>\.ollama\models,目录下包括manifests和blobs两个子目录。对于C盘不足恐惧症的人来说,是必须要修改的,毕竟动辄几个G的文件。

‌我们先来看一下ollama的配置参数有哪些:

14540e80274323f9d284cbd07e7e4b7f.png

常用的几个参数如下:

OLLAMA_MODELS是配置ollama的模型存储路径,默认是C盘的C:\Users\<USERNAME>\.ollama\models,这里我们更改ollama的模型存储为D盘

变量名:OLLAMA_MODELS

变量值:E:\ollama

OLLAMA_HOST为ollama监听地址,默认是127.0.0.1(仅限本机访问),这里设置为设置为0.0.0.0,即可远程访问

变量名:OLLAMA_HOST

变量值:0.0.0.0:12345

OLLAMA_PORT为ollama默认端口号,默认为11434端口

变量名:OLLAMA_PORT

变量值:12345

OLLAMA_ORIGINS为http开放请求

变量名:OLLAMA_ORIGINS

变量值:*

修改后的环境变量见以下截图:

4d2fdf4584cabfdb78d31ea4d318cf41.png

一般重启后才能起作用

然后把这两个目录剪切到OLLAMA_MODELS目录下,对比前后两次执行的数据情况

065a4241ac06597bcaf9bc027ef3107a.png

第四步,更改防火墙

1、新建入站规则

bb5b4f7bac1f1c1af415cb124db35239.png

2、选择端口

e31deb8aa517e2da55ce6e509f097a55.png

3、指定和OLLAMA_PORT一致的端口

3f6508878cdba614990486f3ddb5dd6f.png

4、指定连接方式

6a39ca7ec68553a25b2d13c372e2a8ef.png

5、指定何时应用该规则

50b8d9ff0cac13ff01b3df1048d6e7a1.png

6、保存规则名称

737c8b6f359fb92f6c6fc9d994ca1f95.png

第五步,重启ollama,查看相关情况

1、建议重启服务器,或者重启ollama

ce441785b3bb29678747704fe58199a4.png

2、再用command命令打开ollama314d88ead634d25bc20b0fcfb6103f3f.png

3、打开浏览器

9d4e08c687ef5cd56745467a07c692c3.png

写在最后的话,作为AI小白,去尝试看懂DeepSeek是有点不现实的,后续可能会考虑如何尝试更加友好的应用DeepSeek,或者利用DeepSeek解决一些工作上的问题,或者在垂直行业做一些微调吧。

顺便吐槽一下DeepSeek在线版的稳定性,基本上几个问答就报“服务器繁忙,请稍后再试”了。

最后欢迎关注公众号:python与大数据分析

图片

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐