成功运行截图

部署步骤

我们进入到ollama的官网:

Ollama​ollama.com/​编辑

找到上方的Models ,然后点击

此时会跳转到模型列表页面:

点击 deepseek-r1 链接进去,此时我们会看到下拉框中有各个版本的大模型,越往后对电脑硬件的要求越高,如下图所示:

模型参数(1.5B、7B、8B等)是什么意思?

这些数字代表模型的 参数量(比如1.5B=15亿,7B=70亿),你可以简单理解为模型的“脑细胞数量”:

  • 参数越多 → 模型越聪明(能处理复杂任务,比如写代码、逻辑推理),但需要的计算资源也越多。
  • 参数越少 → 模型更轻量(反应快、适合简单任务),但对复杂问题可能表现一般。

举个例子

  • 1.5B 模型 ≈ 一个“高中生”水平(能聊天、写短文)。
  • 7B 模型 ≈ “大学生”水平(能写代码、分析问题)。
  • 70B 模型 ≈ “教授”水平(专业级回答,但需要顶级显卡)。

本地部署需要什么电脑配置?

运行模型主要依赖 内存(RAM) 和 显卡(GPU),具体需求如下:

最低配置(能跑,但可能慢)

1.5B 模型:

    • CPU:4核(Intel/AMD均可)
    • 内存:8GB
    • 显卡:可选(无GPU也能跑,用CPU)
    • 硬盘:5GB空间(存储模型)

7B~8B 模型:

    • CPU:4核以上
    • 内存:16GB(必须!)
    • 显卡:可选,但有GPU(如NVIDIA GTX 1060 6GB)会快很多
    • 硬盘:15GB空间

流畅配置(推荐)

7B~8B 模型:

    • 内存:32GB(避免卡顿)
    • 显卡:NVIDIA RTX 3060(12GB显存)或更高
    • 硬盘:SSD(加快加载速度)

13B+ 模型:

    • 需要高端显卡(如RTX 4090 24GB显存)或专业级设备。

根据上面的参考, 我们就安装8B, 也就是80亿参数。然后点击右边的复制,就会复制安装命令。

打开cmd, 粘贴上面复制的命令, 等待下载。

此时我们的模型下载目录就会多出文件:

等了很久,如果出现了 “unable to allocate CUDA0 buffer” , 表示你的GPU内存不足。

然后运行 “nvidia-smi”, 查看 占用GPU的进程,然后全部关掉。

然后重新运行 “ollama run deepseek-r1:8b” , 还是不行的话, 就用1.5B参数的吧!

我这里已经成功了:

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐