
Ollama入门,一键启动本地DeepSeek大模型
Ollama系列文章:
Ollama入门,一键启动本地DeepSeek大模型
Ollama入门,Ollama技术架构与原理
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
Ollama高手,玩转本地自定义大模型(LLM)
Ollama高手,调优Ollama环境变量,提高性能与安全性
Ollama高手,调优Ollama模型参数,提高模型输出质量
感谢“AI界拼多多”的DeepSeek,解开了“AI大模型”的神秘面纱,让普通笔记本也能跑起“大神们”的“神器”。当然在DeepSeek“一朝成名天下知”的其实早有默默耕耘的LLaMA、Qwen等等,以及能让这些大模型在本地电脑上一键启动的开源项目——Ollama。下面就一起来探一探这个通往AI大模型世界的神器。
1. 什么是 Ollama?
Ollama 是一个轻量级的本地大语言模型(LLM)运行工具,允许用户在本地环境中运行和交互 AI 模型,而无需依赖云端服务。Ollama 提供了便捷的安装方式,并支持多种热门的大语言模型,如 DeepSeek、Qwen、LLaMA、Mistral、Gemma 等。
有实际使用中,Ollama 有如下优点:
- 本地运行:无需云端 API 访问,保护数据隐私。
- 轻量便捷:提供易用的 CLI(命令行界面)和 Python API。
- 多模型支持:支持多个开源 LLM,如 LLaMA、Mistral、Gemma。
- 高效推理:利用本地 CPU 或 GPU 进行高效推理。
- 跨平台支持:可运行于 macOS、Linux 和 Windows(实验性支持)。
2. 如何安装 Ollama?
方法1:通过安装包安装 Ollama
可以通过Ollama官方提供的安装包,根据操作系统(支持macOS、Linux、Windows)下载后安装即可。
方法2:通过Shell安装Ollama
只需运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh
3. 如何使用 Ollama?
Step1:下载模型到本地并运行
安装完成后,可以使用 Ollama 运行预训练的模型。例如,下载并运行 deepseek-r1:
ollama run deepseek-r1:8b
启动大模型之后,就可以通过shell使用大模型。
Step2:列出本地可用模型
要查看已下载的模型,可以运行:
ollama list
Step3:拉取特定模型
如果想下载一个特定的模型,比如QwQ 32B,可以执行:
ollama pull qwq
4. 通过AI客户端工具使用Ollama
虽然可以通过shell与大模型进行对话,但是为了更好的输入输出效果,一般建议使用AI客户端工具来使用Ollama,常见的有:
- ChatBox:一款集AI客户端和智能助手功能于一体的应用,支持多种先进的AI模型和API,可在Windows、MacOS、Android、iOS、Linux和网页版上使用。其主要功能包括文档、图片和代码处理,智能回复,代码生成与预览,联网搜索,图像生成,LaTeX和Markdown渲染
- CherryStudio:多模型聚合,支持 Claude、GPT、DeepSeek 等模型,可对比不同模型答案。有 300 多个预置助手,能帮助用户快速获取信息。界面可高度自定义,用户可通过自定义 CSS、头像、布局等,打造专属 AI 工作室,适合设计师、企业团队、科研人员等对界面有个性化需求以及需要使用多模型的用户。
- AnythingLLM:支持文字、图片、语音等多模态输入,方便用户以不同方式与 AI 交互。具备 AI 代理联网功能,能自动爬取网页、运行代码,帮助用户处理复杂任务,适合法务、教育、研究机构等需要处理海量文档和复杂任务的用户。
- ChatWise:能一键接入 OpenAI、DeepSeek、Ollama 等全网模型,还可使用他人部署的模型,对于预算有限的用户来说是不错的选择。支持本地运行 Llama、DeepSeek - R1 等开源模型,在低配电脑上也能流畅运行。界面极简,支持多模态交互,如截图提问、视觉问答等,适合学生、极客等人群。
5. 通过 Python API 使用 Ollama
Ollama 还支持 Python API,可以在代码中调用本地模型。
安装 Ollama 的 Python SDK:
pip install ollama
使用 Python 调用 Ollama 运行模型:
import ollama
response = ollama.chat(model='deepseek-r1:8b', messages=[{'role': 'user', 'content': '你是谁?'}])
print(response['message'])
6. DeepSeek R1 硬件配置参考:
一般电脑配置参考
模型版本 | 参数规模 | 显卡 | 内存 | 存储空间 |
---|---|---|---|---|
1.5B | 1.1GB | 4核 GTX 1650 或 RTX 2060 | 16GB | 50GB |
7B | 4.7GB | 6-8核 RTX 3060 或更强 | 32GB | 100GB |
8B | 4.9GB | 6-8核 RTX 3060 或更强 | 32GB | 100GB |
14B | 9GB | 8核以上 RTX 3080 或更强 | 64GB | 200GB |
32B | 20GB | 8核以上 RTX 3090、A100 或 V100 | 128GB | 500GB |
70B | 43GB | 12核以上 A100、V100(可能需要多卡并联) | 128GB | 1TB |
671B | 约350GB | 高端多核 多张 H100 或 H200 并联 | 700GB 显存 | 1TB |
苹果电脑配置参考
模型版本 | 参数规模 | 建议的处理器 | 内存(RAM) | 存储空间 |
---|---|---|---|---|
1.5B | 1.5 亿 | M1 或更高版本 | 8GB 或以上 | 至少 50GB |
7B | 70 亿 | M1 Pro 或 M1 Max | 16GB 或以上 | 至少 100GB |
14B | 140 亿 | M1 Max 或 M2 Pro | 32GB 或以上 | 至少 200GB |
32B | 320 亿 | M2 Max | 64GB 至少 | 500GB |
70B | 700 亿 | M3 Max 或更高版本 | 128GB | 至少 1TB |
671B | 6710 亿 | 当前 MacBook Pro 无法满足 | - - |
更多推荐
所有评论(0)