普通用户怎么本地化部署deepseek R1,使用丝滑、完全免费
90%用户的电脑配置低,那要怎么本地部署化deepseek R1呢,如果你的DeepSeek只在CPU和内容中运行(显存占用很低)。或者是你不知道如何在本地部署DeepSeek,那么本篇文章将帮助你解决这个问题。本地部署后的特点是无需联网、使用丝滑、完全免费,从此告别服务器繁忙。下面以本人AMD普通显卡Radeon 780M本地部署DeepSeek R1为例,1. Ollama部署Ollama是一
问题描述
90%用户的电脑配置低,那要怎么本地部署化deepseek R1呢,
如果你的DeepSeek只在CPU和内容中运行(显存占用很低)。表现如下图:
或者是你不知道如何在本地部署DeepSeek,那么本篇文章将帮助你解决这个问题。
本地部署后的特点是无需联网、使用丝滑、完全免费,从此告别服务器繁忙。
下面以本人AMD普通显卡Radeon 780M本地部署DeepSeek R1为例,
1. Ollama部署
Ollama是一个开源的大模型管理框架,可以帮助你在本地部署DeepSeek。
你可以从这里访问Ollama的官网下载。
注意,如果你是AMD显卡,你应该下载Ollama的AMD版本,否则大模型会在CPU上运行,推理效率低。请从这里下载:ollama-for-amd
打开后点击右侧Releases标签,进入软件列表,将页面拖至最低部,选择自己显卡型号的版本直接下载OllamaSetup.exe安装包即可
获取安装包后一路下一步,直至右下角出现羊驼图标,表明Ollama服务已启动。
2. 下载DeepSeek
2.1 下载DeepSeek
在开始菜单处搜索cmd,打开命令行窗口,输入以下命令下载DeepSeek:
ollama run deepseek-r1:7b
当看到有百分比显示时,说明DeepSeek已经开始下载。
如果下载过程较慢,耐心等待即可一般不会卡死。
当屏幕出现send a message时,说明DeepSeek已经下载完毕,可以向他提问了。
2.2 确认是否在显卡中运行
在开始菜单处搜索任务,打开任务管理器,切至性能,观察专用显存占用情况,如果很低,证明DeepSeek没有在显卡中运行。
如下图所示:
此时你需要替换部分文件,才能修复此问题。
访问github:v0.6.1.2
打开url页面,下拉到最低部,根据你的显卡类型,下载对应的文件:
如780M就下载:
rocm.gfx1103.AMD.780M.phoenix.V4.0.for.hip.sdk.6.1.2.7z
下载完成后,将解压的内容分别对应替换:
C:\Users\你的用户名\AppData\Local\Programs\Ollama\lib\ollama\rocblas.dll
C:\Users\你的用户名\AppData\Local\Programs\Ollama\lib\ollama\rocblas\library
2.3 替换完成后,重启Ollama
再次查看性能,如果专用显存占用有提升,说明DeepSeek已经在显卡中运行。如下图表示已经部署OK。
2.4 UI界面
推荐浏览器扩展,如下方案一,也可直接下载LobeChat
方案一、安装page assist拓展,可以使用Ollama的UI界面。
此拓展需要在谷歌浏览器或火狐浏览器中安装,其中谷歌浏览器的拓展商店需要科学上网才能访问。
如果你无法科学上网,可下载安装火狐浏览器,下载地址
下载完成后,点击右上角拼图图标,打开管理扩展,点击下方添加附加组件,搜索page-assist,打开后点击添加到Firefox。
下载过程可能会比较慢,耐心等待即可。
拓展下载完成后,浏览器右上角会弹窗提示添加,点击添加。
点击右上角拼图图标,打开page assist界面,在右上角选择你刚下好的模型,在下方输入框输入内容就可以向deepseek提问了。
方案二、直接下载安装LobeChat,打开可以使用Ollama的UI界面。
3.主要问题解答
我该下载使用那个版本的DeepSeek,一般7B版本足够,关于B的选择:
显存 可用 流畅运行 备注
手机 1.5B 1.5B 玩玩可以
核显 8B 4B 主要靠内存
4G及以下 8B 7B及以下 -
8G 14B 8B 10tokens/s左右
16G 32B 14B 理论上
24G 70B 32B 理论上
32G 70B - 理论上
更多推荐
所有评论(0)