开年第一天回岗,春节假期一直被deepSeek的消息所震撼。国产新秀有什么理由不拥护支持呢。

简单科谱下:

什么是DeepSeek:是由中国科技公司研发的AGI(通用人工智能)

DeepSeek可以做什么:提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景、支持联网搜索深度思考、支持文件上传,扫描读取各类文件及图片中的文字内容。

不过最近使用的过程中总是提示崩溃,可能和使用人数过多,服务器负载有关,也可能与大年初二前后被恶意留量攻击有关吧,想使用在线的可访问网址DeepSeek, 没有网怎么在线使用呢,离线下载安装部署吧。 

注:DeepSeek-R1是开源的推理模型,擅长处理复杂任务且可免费商用,性能对齐OpenAI-O1正式版本。

1. 下载离线包

下载地址:deepSeek下载,本文以windows为例,但注意,如果是windows下载的官网有提示需要win10及以上的系统支持。

等待安装完成即可...

2. 离线安装部署

2.1 找到相应的安装命令

下载好进行默认安装,回到欧拉玛下载页的首页,找到左上角的Models,结合本机显卡情况,去找到安装运行命令。一般选择1.5B模型即可,如下图所示:

如可查看本机显卡呢。可以 通过win+R,输入msinfo32运行查看显示系统信息,然后选择组件->显示,可以查看显卡信息,包括驱动程序和版本,如果不直观也可以推荐 使用任务管理器查看,使用组合键,(Ctrl+Shift+Esc),选择性能,查看如下所示:

,如何选择对应的关系呢?

  • 4G-8G显存:中端显卡(如GTX 1660 Ti、RTX 2060) 对应选择1.5B模型
  • 16GB-24GB显存:适合高端显卡(如RTX 3090、RTX 4090)对应选择7B模型
  • 24GB以上显存:适合顶级显卡(如A100、RTX 4090)可对应选择8B模型。

讲到这,额外科谱下1.5B、7B代表什么,有哪些区别呢?

B的含义 B是指亿字数量级,XB就代表这个模型有X亿个可训练的参数,反映了大模型的复杂程度和计算资源消耗
模型规模 1.5B代表有1500百万个参数;7B代表有7000百万个参数参加训练
模型结构  1.5亿个参数的大模型型可能用到如Transformer或BERT等复杂架构,它们可能包括多层叠或更深的堆叠;7亿个参数的大模型更加庞大,甚至可能基于现有的Transformer架构扩展而来
计算资源 参数多的大模型需要更多的GPU和T4芯片,在训练和推理过程中,高参数数量会导致计算时间增加
应用领域 1.5B常用于医疗影响分析、自然语言理解等高精度的任务中;7B参数用于生成式AI、文本摘要、代码生成等需要更强表达力能的就用场景上
训练成本 7B的训练成本(包括训练时间、训练资源、预算)都会高于1.5B
灵活性与可解释性 1.5B调整架构和参数数量更好适应,好比车小好转头一样

2.2 安装部署

打开命令窗口(windows+R,输入cmd运行),执行上一步copy的命令

ollama run deepseek-r1:1.5b

等待安装,如下图所示:

3. 使用测试

提示语如何高效,打算另起一个章节单独和大家聊聊。最简单的就是明确你是谁,我是谁,我的需求是什么,我的要求是什么。

4. 启动和退出

4.1退出

退出比较简单关闭命令窗口,或是命令行中输入Ctrl + d 或者/bye即可

4.2启动

没错,需要每次输入官网的那个命令

ollama run deepseek-r1:1.5b

如下图所示

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐