这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。

这是今天上午的情况↓

没办法,这泼天的流量一般人扛不住~

想高频使用怎么办呢?本地装一个!

本地部署有两个好处:❶不联网,全私密,不担心隐私泄露,还可以挂载本地知识库❷完全免费,彻底告别“服务器繁忙”。

如果你是苹果Mac本——

我们需要用到两个神器:

一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。

另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。

一、下载Ollama,并拉取安装DeepSeek

Ollama是一个可以在本地运行和管理大模型的神器,完全本地运行,而且支持多种模型,包括但不限于Llama、DeepSeek、Qwen、Gemma等等。

登录网站,直接去下载页:

https://ollama.com/download

直接下载macOS版本的程序,其实从上图你可以发现,Linux和Windows也是OK(这个咱后面再讲)。

下载后是一个压缩包,二话不说,直接解压,你会得到一个“草泥马”头像的程序

这个程序可以直接点击运行,但是建议你拖到「应用程序」目录下,便于用的时候以后好找。

好了,接下来直接运行Ollama,然后进入到终端窗口↓

接下来运行命令,拉取对应版本的模型即可。

目前DeepSeek-R1可选的模型有满血版671B,和蒸馏版1.5B、7B、8B、14B、32B、70B:

满血版个人电脑就别想了,其他蒸馏版大家根据电脑配置来选。

如果只是玩玩的话,建议不要选择太大的,14B以下的尝尝鲜。

Mac配置高的话,比如64G以上的内存,可以尝试32B或者70B,毕竟参数越大,模型智商越高。

我的电脑是96G内存,所以今天挑战一下70B版本,运行命令↓

ollamarundeepseek-r1:70B

前面命令都一样,后面输入对应的模型参数即可

激动人心的时刻开始了,70B的模型有42G那么大,我这里的网络需要下载大概40分钟。

不急,泡杯咖啡慢慢等~

经过一番漫长的等待,42GB的大模型终于拉取完毕,并安装成功(不知道为啥,最后3%的网速会非常慢,只有几百K,据说很多人和我一样。)

安装成功的界面是这样的↓

在这个命令行下,就可以直接使用DeepSeek了↓

提问就可以,在两个之间是推理过程,也就是收到问题以后,DeepSeek的内心戏↓

完成推理后,DeepSeek就开始输出正题:一段诙谐幽默的自我介绍↓

怎么样,这个回答还不错吧。

如果你觉得这个命令行界面跟玩文字mud似的,太土鳖了,没关系,接下来我们安装第二个神器,也就是Page Assist。

二、安装Page Assist,开始享用DeepSeek

Page Assist是一款Chrome浏览器插件,所以,你只需要打开Chrome,点击右上角“三个点”,然后“扩展程序”、“访问Chrome应用商店”。

然后在应用商店中搜索“Page Assist”,第一个就是,点击安装即可。

安装完成后,在浏览器右上角这个位置,点开就可以找到,可以用📌钉住,方便以后随时打开使用

点击图标就可以打开UI界面,怎么样,是不是界面舒服多了,可以选择对应的模型,然后开始提问了。

用法跟在线版的没啥区别。

点击模型下拉框,可以查看已经安装的模型,我之前已经安装了14B,刚刚又装好了70B。

点击右上角的齿轮,可以进行基础设置,比如更改语言、语音(默认都是英文,可以修改为简体中文)。

还可以更改默认搜索引擎,让大模型在推理的同时,开启联网搜索功能。

还可以添加本地知识库,让DeepSeek更具备个性化和专属性。

至此,万事具备,让我们来体验一下70B的本地DeepSeek,到底聪明不聪明?

先小试牛刀↓

接下来,我让它给IT技术从业者提出10点建议。

你来评评,它说的怎么样?

单单运行了这么点东西,我的本子散热风扇已经开始呜呜作响了。

看来想要运行70B的模型,我这台mac还是有点小马拉大车了。

如果你是Windows PC——

对应下载Windows版本的Ollama即可,其实安装过程大差不差。

只是Windows版本的安装程序比Mac版大多了。

安装完成后,同样打开命令行窗口,拉取对应的模型↓

这次我们低调一点,拉取最小的1.5B模型(我是虚拟机,跑不动太大的。)

模型尺寸小还是好,瞬间搞定↓

简单调戏一下,不得不说,参数量小的模型就是蠢,只能当玩具。

接下来,可以继续安装Page Assist,进行图形化管理和对话,我就不重复了。

如果你用的是Linux——

我们在Ubantu 22下玩一玩。(其实玩Linux的人不需要看教程

打开shell,直接运行命令↓

curl -fsSL https://ollama.com/install.sh | sh

就可以完成Ollama的下载和安装

后面拉取和运行模型的步骤就一样了,不再赘述。

如果你想用iPhone或安卓机——

其实,在手机上跑一个DeepSeek 1.5B也是可以的,只是这样干完全没有必要。

首先,1.5B模型太小太弱智,基本没什么用;第二,运行这个模型太烧机了。

所以如果不是非常特殊的用途,我建议你完全可以去用市面上各种流行的大模型助手:豆包、通义、元宝、文小言、讯飞星火、Kimi…

让他们赛马,你来翻牌子,既节省资源,效率还高。

好啦,教程就分享到这里。

最后讲讲大家关注的电脑配置问题,其实我测试下来感觉配置要求其实不高,丐版电脑你就装小尺寸,豪版电脑你就装大尺寸。

当然从模型的可用性来讲,我建议至少24G以上的内存,运行14B以上的模型,如果有独立的N卡A卡更好,没有的话CPU跑跑也没关系。

大家也可以分别拉取不同尺寸的模型来测试(因为很简单),达到性能和体验的平衡。

现在赶紧行动起来,在你的电脑上装个DeepSeek吧,从此告别“服务器繁忙,请稍后再试”!

那么,如果是企业想要在本地部署一个DeepSeek,甚至是满血版的,应该怎么办呢?我们下回分解

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐