一,DeepSeek 介绍

DeepSeek官网地址Chat with DeepSeek AI – your intelligent assistant for coding, content creation, file reading, and more. Upload documents, engage in long-context conversations, and get expert help in AI, natural language processing, and beyond. | 深度求索(DeepSeek)助力编程代码开发、创意写作、文件处理等任务,支持文件上传及长文本对话,随时为您提供高效的AI支持。https://chat.deepseek.comhttps://chat.deepseek.com

二,本地运行 AI 模型优势

  •  隐私安全:你的所有数据都保留在你自己的机器上,不存在共享敏感信息的风险

  • 免费无广:DeepSeek R1 可免费使用,无需订阅费或使用费。

  • 灵活控制:无需外部依赖即可进行微调和实验。

  • 快速响应:官方及三方访问量过大,延迟非常高,造成卡顿,本地可以避免这种情况。

三,安装流程

1,安装Ollama

直接下载就行了

Ollama官网地址https://ollama.com/https://ollama.com/

2,拉取 DeepSeek R1 模型

刚开始不必要下载所有模型,可以先下载最轻量的模型 deepseek-r1:1.5b

后续流程跑通后,再尝试其他高质量模型的能力。

回到 Ollma 官网,点击 Model

ollama run deepseek-r1:1.5b

四、GUI 体验-ChatBox(待续)

五、如何在MacOS上更换Ollama的模型位置

1,更改Ollama在Mac的环境变量

launchctl setenv OLLAMA_MODELS <你的模型文件夹路径>

2,手动复制原来的模块文件

A)复制原来的模块文件

cp -R ~/.ollama/models <你的模型文件夹路径>

B)重新启动Ollama APP测试是否正常(退出再重新的打开)

C)确认复制没有问题再删除原来的模块文件

ollama list

六、Ollama常见问题文档

ollama/docs/faq.md at main · ollama/ollama · GitHub

七,运行DeepSeek不同模型

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

参考

【1】(干货篇)一文带你将 DeepSeek 部署到本地,并对接至Vscode!

【2】MaktubLOG (maktubcn.info)

【3】如何在MacOS上更换Ollama的模型位置?_哔哩哔哩_bilibili

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐