
【2025版】最新手把手搭建DeepSeek本地大模型,零基础入门到精通,收藏这篇就够了
比如DeepSeek-R1:1.5B,这里的1.5B指的是参数集规模,B是Billion(十亿)的缩写,1.5B指的是15亿参数集规模。当然,有了Open WebUI之后,我们还能很方便的选择其它大模型,或者与大模型语音交互。能聊天的大模型,除了DeepSeek,还是阿里云的通义千问(Qwen2/Qwen2.5),好玩的模型还有很多。大型语言模型(Large Language Models,简称L
“ DeepSeek最近风声水起,火出边际,奈何它正遭受网络攻击时断时续。于是乎,我打算把它塞进本地电脑。”
看来DeepSeek又忙着跟黑客大战去了,这会儿功夫我自己本地大模型服务好了。嗯,不光要把DeepSeek装进来,我还要QWen、LLaVA等等。成年人的世界里不需要选择,全都要。O(∩_∩)O哈哈~
01
—
基本概念
在正式开始部署本地大模型前,需要对其一些基本概念,这还是需要一点点技术功底。如果你对LLM、Ollama、Docker、Open WebUI都已经熟知,可以直接跳转至下一节内容。
大型语言模型(Large Language Models,简称LLM),是一种基于深度学习的自然语言处理模型,通过大规模语料库的训练,能够生成、理解和处理复杂的文本数据。
DeepSeek是深度求索公司开发的深度学习模型搜索引擎,当前最新版本DeepSeek-R1。号称在GPU受限的前提下精进算法参数就足以吊打闭源的ChatGPT-4o。到底有没有这么神奇,还需要时间的检验。另外需要知道的一点是,参数集规模。比如DeepSeek-R1:1.5B,这里的1.5B指的是参数集规模,B是Billion(十亿)的缩写,1.5B指的是15亿参数集规模。参数集规模越大,意味着回答更精准,但同时对于机器的硬件要求也就越高,尤其是GPU性能和内存容量。
Ollama提供了一种简化的方式,使得开发者能够在没有云计算依赖的情况下直接在本地机器上运行强大的语言模型,从而降低延迟并提高隐私保护。简单来说,Ollama是一个容器,或者说它就是搭载本地大模型的一艘货轮。想要把DeepSeek、Qwen、LLaVA等等大模型都装到本机上运行,就需要把Ollama先配好。当然,这个可能是最不困难的事情。
Open WebUI是一个开源的 Web 用户界面(UI)框架,用于简化 Web 应用程序的开发和管理。它通常用于提供可自定义的、易于操作的界面,支持用户通过浏览器与应用进行交互。Ollama提供的是一个极客风格命令行聊天界面,还需要给它换身衣服才好出来见人,这就需要Open WebUI来套个壳。当然,有了Open WebUI之后,我们还能很方便的选择其它大模型,或者与大模型语音交互。又或者一不留神,就开发了一个AI语音聊天机器人。
Docker是一个开源的容器化平台,用于自动化应用程序的部署、扩展和管理。它通过将应用程序及其所有依赖项(包括操作系统库和环境)打包到一个标准化的容器中,使得应用能够在任何环境中一致运行,无论是开发、测试还是生产环境。换言之,Docker是另一艘货轮,用来运载已经打包好的服务,比如我们后面要讲的Open WebUI。如果你不需要图形化界面支持,可以直接跳转至下节内容。
这波概念恶补结束,下面进入实操环节。
02
—
部署Ollama
Ollama已经准备好了安装包,来https://ollama.com/download下载,界面如下。嗯,暴露了我是MacOS用户。
或者,你可以在终端执行以下代码,将Ollama部署到本机。
curl -fsSL https://ollama.com/install.sh | sh
趁着命令执行过程中,先大概了解下Ollama的命令。
|
命令
|
作用
|
| — | — |
| ollama serve
|
启动 ollama
|
| ollama create
|
从模型文件创建模型
|
| ollama show
|
显示模型信息
|
| ollama run
|
运行模型
|
| ollama pull
|
从注册表中拉取模型
|
| ollama push
|
将模型推送到注册表
|
| ollama list
|
列出模型
|
| ollama ps
|
列出运行的模型
|
| ollama cp
|
复制模型
|
| ollama rm
|
删除模型
|
| ollama help
|
获取有关任何命令的帮助信息
|
PS:一般情况下,我们会用ollama run <LLM>
就足够用了。
现在,我们已经有了Ollama这艘能够搭载大模型的货轮,接着该上货了。
03
—
部署DeepSeek
为方便演示,使用DeepSeek-R1的1.5B小参数集模型。在终端执行以下代码,拉取DeepSeek-R1:1.5B版本。
ollama pull deepseek-r1:1.5b
如果一切顺利,执行上述命令的末尾处会看到“success”。
好了,现在可以跟DeepSeek聊个天了,就问问他哪吒闹海的故事好了。
在终端执行以下命令,当然,你也可以换个问题。
ollama run deepseek-r1 "讲讲哪吒闹海"
DeepSeek果然是思考型的大模型,思考过程给你展示出来了。这中英文混杂的情况,莫不是语料喂得有点杂?先不管这15亿参数集大模型的效果,当前重要的是告别这种极客风格,我需要一张白静的脸——Open WebUI。
04
—
部署Docker和Open WebUI
终端极客版本的大模型用起来看着不那么友好,还是Web界面操作更有亲和力。Docker很好部署,只需要到官网(https://docs.docker.com/desktop/)下载就好。
安装好Docker并启动后,类似如下界面。
现在再回到黑漆漆的命令行终端,执行以下命令,拉取Open WebUI Docker镜像。
docker pull ghcr.io/open-webui/open-webui:main
Docker镜像拉取执行结果如下。
先别急着欢呼,这只是下载了镜像,还需要一条启动命令。
执行以下命令,启动Open WebUI
docker run -d -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -p 8080:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这时,终端会经过漫长的等待,直到你看到下面这个信息,就说明Open WebUI启动了。
现在可以在本机浏览器地址栏里输入http://localhost:8080/ 来看看Open WebUI的首秀了。
这里填入账号密码创建管理员账号,即可登录Open WebUI。
第一次登录Open WebUI界面如下。
点击左上角可以选择DeepSeek模型,如下图所示。
这时候,就能使用DeepSeek-R1:1.5B版本聊天了
现在就可以跟DeepSeek聊天了。
内容着实有点长,我电脑的风扇都启动了,有点费CPU(Mac用户才有的痛)。
05
—
使用推荐模型
能聊天的大模型,除了DeepSeek,还是阿里云的通义千问(Qwen2/Qwen2.5),好玩的模型还有很多。LLaVA-Phi3能够识别图像,配合其它工具还能使用DeepSeek-Coder写代码。能在Ollama中运行的大模型还有很多,已经整理好了表格,慢慢翻,够折腾一段时间~~ _
|
模型名称
|
提供方
|
官网地址
|
说明
|
| :-- | :-- | :-- | :-- |
|
LLaMA3
|
Meta AI
|
https://ai.facebook.com/tools/llama/
|
大型语言模型,专注于高效的自然语言处理任务。
|
|
TinyLlama
|
开源社区
|
https://github.com/tinyllama
|
轻量级的语言模型,适用于资源受限的环境。
|
|
Qwen2/Qwen2.5
|
阿里云
|
https://qwen.ai/
|
多模态语言模型,支持文本和图像处理。
|
|
Phi-3
|
微软
|
https://www.microsoft.com/phi-3
|
小型语言模型,专注于高效能和低资源消耗。
|
|
Gemma
|
谷歌
|
https://ai.google/gemma
|
开源语言模型,适用于多种自然语言处理任务。
|
|
WizardLM2
|
微软
|
https://github.com/WizardLM
|
专注于对话生成和任务导向对话的语言模型。
|
|
Orca Mini
|
开源社区
|
https://github.com/orca-mini
|
小型语言模型,专注于对话生成和问答任务。
|
|
Codellama
|
Meta AI
|
https://ai.meta.com/
|
基于Llama 2的大型代码语言模型,提供多种版本,具备填充能力、支持大型输入上下文,以及编程任务的零样本指令跟随能力。
|
|
StarCoder2
|
BigCode
|
https://huggingface.co/docs/transformers/main/model_doc/starcoder2
|
代码生成模型,支持600多种编程语言。
|
|
DeepSeek Coder
|
DeepSeek
|
https://www.deepseek.com/
|
一个强大的代码语言模型系列,适用于代码生成、代码补全等多种任务。
|
|
LLaVA
|
开源社区
|
https://github.com/haotian-liu/LLaVA
|
结合了视觉编码器(如 CLIP)和大型语言模型(如 LLaMA 或 Vicuna),能够处理图像和文本的联合任务,适合高性能设备。
|
|
LLaVA-Phi3
|
微软 + 开源社区
|
https://github.com/haotian-liu/LLaVA
|
继承了 LLaVA 的多模态能力,同时在性能和效率上进行了优化,适合资源受限的环境。
|
不得不说LLaVA-Phi3对于图像的理解很到位,连影子里的两个人影都发现了。
还不快来试试你的本地大模型,一定会让你为之一振。嗯,先问问CPU、GPU和你的硬盘是不是很乐意。O(∩_∩)O哈哈~
下面给大家分享一份2025最新版的大模型学习路线,帮助新人小白更系统、更快速的学习大模型!
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取
2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享**
一、2025最新大模型学习路线
一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1级别:AI大模型时代的华丽登场
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。
L2级别:AI大模型RAG应用开发工程
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3级别:大模型Agent应用架构进阶实践
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。
L4级别:大模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
二、大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
三、大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
四、大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
五、大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取
更多推荐
所有评论(0)