保姆级教程:deepseek r1无脑本地部署教程 ,基于ollama,chatbox部署
deep seek无脑本地安装,适合新手,一秒上手ez,没难度
步骤:下载安装 ollama ,摁win+r,输入cmd,选择需要的deepseekr1的版本下载安装。下载安装chatbox,设置配置。
一、打开浏览器输入ollama官网,打开进入
二、点击download,下载你的电脑对应版本(我的是windows,本文以Windows为例),下载完成后,无脑安装。
下载完成后点击打开文件,无脑安装。
安装完成后,输入win+r输入cmd,打开控制面板。再输入ollama,出现以下代码则显示安装成功
然后大家回到网页里面的olama官网,在上方的搜索框内输入deepseekr1
点击deepseek-r1后会出现这个
注:
-
1.5B(1.5 Billion):
- 模型参数数量为15亿。
- 这种规模的模型通常属于中小型模型,适用于训练速度快、资源需求较低的任务。例如,可以用于一些小型的自然语言处理任务,或者在设备性能有限的情况下(如移动设备)进行推理。
-
7B(7 Billion):
- 模型参数数量为70亿。
- 这种规模的模型已经开始进入大模型的范畴,通常具有较好的语言理解和生成能力。它们可以处理复杂的自然语言理解任务,并具备一定的上下文理解能力。
-
8B(8 Billion):
- 模型参数数量为80亿。
- 这个规模的模型与7B类似,都属于较大的模型。通常比1.5B模型有更强的学习能力和更好的泛化能力,适合用于需要较高精度的任务和应用。
-
14B(14 Billion):
- 模型参数数量为140亿。
- 这是一个非常大的模型,通常具备更强的语言理解和生成能力,能够处理更复杂的任务。同时,训练和推理所需的计算资源也显著增加。
-
32B(32 Billion):
- 模型参数数量为320亿。
- 这是一个非常庞大的模型,通常用于需要极高精度和复杂度的任务。这类模型在自然语言理解、生成和对话系统等领域表现出色,但需要大量的计算资源进行训练。
-
70B(70 Billion):
- 模型参数数量为700亿。
- 这是一个巨型模型,拥有极其强大的语言理解和生成能力。通常用于最前沿的自然语言处理研究和服务,如高级智能助手、知识问答系统等。
-
671B(671 Billion):
- 模型参数数量为6710亿。
- 这是一个极其庞大的模型,目前基本上只有极少数顶尖的研究团队或公司有能力开发和训练这样的模型。这种模型通常用于最前沿的研究,具有极高的理解能力和生成能力。
区别与选择:
-
模型规模与性能:模型参数越多,理论上模型的学习能力越强,处理复杂任务的能力也越强。然而,更大的模型也意味着更高的训练和推理成本。
-
应用场景:选择合适的模型规模需要根据具体的应用场景和资源限制来决定。对于资源有限或对实时性要求高的应用,较小的模型可能更合适;而对于复杂和精度要求高的任务,较大的模型则更为适用。
-
计算资源:模型规模越大,所需的计算资源(如GPU/TPU的数量和内存)也越多。因此,在选择模型时需要考虑计算资源的限制。
总结来说,不同的版本(如1.5B、7B、14B等)主要区别在于模型的参数量级,这直接影响了模型的学习能力、处理任务的复杂度以及所需的计算资源。选择合适的版本需要综合考虑应用需求、性能要求以及计算资源的限制。如果您有更多关于Deep Seek或者这些版本的具体问题,欢迎继续提问。
1.5b,7b,回答问题过于单调,帮助不大,要根据算例内存选择合适的版本下载啊,我这里以8b为例子
三、选择合适的版本下载
点击复制按钮
然后在命令行窗口中粘贴,回车,然后他就会自己下载,等待下载完成,最后百分之十会格外的慢,请耐心等待。(我的电脑已经安装好了,就直接运行了)
你们安装完成后也会出现这个,你就可以向他提问一些问题了。哈哈哈
现在本地的deepseek就算是安装成功了,ctrl+d退出
你可以输入ollama list 看你下载的文件版本
想要运行的话就可以输入ollama run 名字
例子:ollama run deepseek-r1:8b
这样就启动成功了,可以使用了。
四、chatbox
1.进入chatbox官网下载,安装。
2.安装的时候记得自定义安装,不要放到c盘。
3.安装之后打开,选择本地部署进入首页。(我的已经安装过了,没有那个页面,你们也可以直接关闭,后面会告诉你怎么弄)
4.打开环境变量
5.编辑用户里面的path看看有没有这个,没有就加上(跟着我部署的自己就有了)
6.然后再系统变量里面新建 变量OLLAMA_HOST值为0.0.0.0(这个因为ollama,一般被访问的路径为127.0.0.1和0.0.0.0,这样调了之后保险)
再加一个OLLAMA_ORIGINS值为"
6.点击确定,然后把电脑重启,让电脑应用这个环境变量
7.重启之后打开chatbox,点击右下角的设置,记得要选择ollama api,然后在api域名上输入http://127.0.0.1:11434,然后选择你自己下载的deepseek,消息数量设置不限制,最后的严谨和想象自己选择。最后点击保存。
8.单击新对话创建对话框
这样本地部署就好了(发消息没反应看看你的ollama是否启动,或者在命令行端口的黑框,再输入一下ollama run deepseek -r1:8b)
这个到这里就结束啦,如果我会了别的会更新的。
更多推荐
所有评论(0)