前言

图片

作为全球首个开源且免费的高性能语言大模型,DeepSeek凭借超强性能和开源策略,直接打破了行业的高成本壁垒,甚至逼得ChatGPT和百度心文一言纷纷宣布免费使用。

但凡事有利有弊,DeepSeek太火爆了,服务器也跟着“遭殃”——网页端和App端服务频繁繁忙,用户体验大打折扣。与此同时,ChatGPT虽然免费,但国内用户使用起来依然不太方便;百度文心一言更是尚未完全开放免费服务。这可真是让人头疼!

不过别担心,今天就来给大家支招!我将详细解析如何本地部署DeepSeek模型,无论是PC端还是手机端,都能轻松搞定,帮你打造属于自己的“离线AI助手”。话不多说,教程马上奉上!

1、PART 1PC端本地部署

Step 1:下载AI模型框架

PC端无论是Windows、macOS还是Linux,部署步骤大同小异。为了更友好地帮大家完成安装,本教程选择了图形化AI框架LM Studio作为示例。

图片

• 下载LM Studio:

打开LM Studio官网(https://lmstudio.ai/),根据你的系统选择适配版本,目前推荐使用0.3.9版本。

注意:官网属于国外站点,用浏览器直接下载可能会很慢甚至失败。推荐使用下载工具(如比特彗星或迅雷)提速。

图片

• 比特彗星官网:A free C++ BitTorrent DownloadClient https://www.bitcomet.com/en

• 安装LM Studio:

安装时尽量避开系统盘,路径中不要出现中文或特殊字符,避免后续运行出错。

图片

Step 2:配置LM Studio基础设置

1.切换语言:首次打开软件界面是英文,点击右下角齿轮图标,选择简体中文即可(虽然翻译不完全,但不影响基本操作)。

图片

2.设置模型目录:这一步很关键!

• 在硬盘中创建一个新文件夹(文件夹名需避免中文和特殊字符)。

• 在新建文件夹内再嵌套两层文件夹,例如「LM_models → 001 → 002」。

• 打开LM Studio,点击左侧文件夹图标,选择外层文件夹(即「LM_models」)作为模型路径。

Step 3:下载并导入DeepSeek模型

1.下载模型:推荐以下两个模型下载站点,根据网络情况选择:

•魔搭:https://www.modelscope.cn/homeHF

• Hugging Face镜像站:Hugging Face镜像站 https://hf-mirror.com

2.选择模型格式:LM Studio仅支持「GGUF」格式的模型,因此在搜索时务必带上此关键词。

图片

模型命名规则解析:

• 后缀中的“b”代表神经元参数量,例如7b = 70亿参数,参数越多性能越强,但对硬件要求也越高。

• 后缀中的“Q4”“Q8”表示量化精度(如Q4 = 4位量化),精度越高性能越强,但占用硬件资源更多。

3.选择合适模型:根据你的硬件性能选择合适的模型,以下为参考:

• Windows/Linux用户:按显存大小选择,如RTX 4060 Ti(8GB)可选择14B的Q4精度模型。

• macOS用户:M系处理器按内存大小选择,Intel处理器则参考显存配置。

模型选择有点像游戏中的画质与帧率取舍,硬件固定时,模型越大回答质量越高,但速度会变慢。

4.导入模型:将下载的模型文件放入之前设置的「002」文件夹,然后在LM Studio中选择导入即可。

Step 4:运行并使用DeepSeek

完成模型导入后,直接点击加载模型即可开始使用。DeepSeek就像你的专属离线AI助手,随时随地响应需求,回答问题、生成内容,一切都不需要依赖在线服务器。

2、PART 2手机端本地部署

相比PC端,手机端的部署步骤更简单,适合轻量化体验。以下是Android和iOS的安装方法。

Step 1:下载模型框架

• Android用户:下载并安装Pocketpal-ai软件:GitHub下载地址 https://github.com/a-ghorbani/pocketpal-ai/releases/tag/v1.6.7。

• iOS用户:直接在App Store搜索“Pocketpal-ai”即可。

Step 2:导入DeepSeek模型

1.获取模型:软件内置的模型库可能不包含DeepSeek-R1,因此需要自行下载。参考PC端提到的下载站点,选择「GGUF」格式的模型。

图片

2.注意事项:

• 由于手机算力较低,建议选择7b或以下模型,1.5b更适合尝鲜。

• 将下载的模型文件传输到手机并导入软件。

Step 3:调整设置并使用

• 设置上下文参数:在软件设置中,将Context size(上下文参数)适量调大,适应长对话和复杂任务。

• 加载模型:点击Load加载模型后即可开始与AI对话。

图片

好啦,以上就是分享的硬核干货了,无论是PC端还是手机端,本地部署DeepSeek都是一种全新的AI玩法。虽然本地模型的能力暂时无法与云端完全体相比,但其离线运行、高度自由的特性,足以让你轻松畅玩AI技术。

未来的AI,或许不再局限于大厂服务器,而是每个人都能定制化掌控的私人助手。你准备好尝试了吗?

最后的最后

感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。

为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。

这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。

这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

大模型知识脑图

为了成为更好的 AI大模型 开发者,这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

经典书籍阅读

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

在这里插入图片描述

实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

面试资料

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

在这里插入图片描述

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐