前言

为什么会写这篇文章,原因有二:

  1. 最近看到 TB 上面这个教程竟然卖 19.9 元,卖了近百万。于是我做了一个违背xx的决定!!!

  2. 还有一个原因是,最近这个 deepseek 被攻击之后,总是报 “服务器繁忙,请稍后再试。” 这种错误,非常影响我的心情。

简单介绍

本文主要使用两个应用,一个 Ollama,还有一个是 chatboxai。安装这两个应用,基本上就完成了80%的工作(虽然不到五分钟就可以完成整个搭建)。

当然这里肯定用到了 deepseek,在我的上一篇文章中已然讲过,就不再赘述了。

Ollama 是什么?

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

Ollama 提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。

Ollama 的特点在于它不仅仅提供了现成的模型和工具集,还提供了方便的界面和 API,使得从文本生成、对话系统到语义分析等任务都能快速实现。

摘自 runoob.com 介绍,不多说了,直接开始安装。

安装 Ollama

可以在 ollama.com/download 进行下载。

安装完后,点击运行后,可以在右上角可以看到一个羊驼标志。说明你已经安装完成了。

筛选 deepseek 模型

继续在 ollama 上面的搜索栏找到 DeepSeek 模型。

需要根据自身电脑配置来进行选择模型,想我这个是 M1 的 8G,只能选择最小的 r1:1.5b模型。

记住量力而行!不然浪费时间!

然后参照下面的模型选型策略,找到你电脑能最大限度支持的模型。

模型参数 基础内存需求 推理内存需求区间
1.5B 3GB 6-9GB
7B 14GB 28-42GB
8B 16GB 32-48GB
14B 28GB 56-84GB
32B 64GB 128-192GB
70B 140GB 280-420GB
671B 1.34TB 2.68-4TB

开始安装 DeepSeek

在终端执行对应模型的安装命令。大约2~3分钟(视网络情况而定)。

安装完成

安装完成之后,可以直接在终端输入你的问题,可以看到下面,我问了 deepseek-r1:1.5b 一个问题。

Q: Hi, who are you?

A: Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by
DeepSeek. I'm at your service and would be delighted to assist you with
any inquiries or tasks you may have.

chatboxai 是什么?

chatboxai 是一款专业的聊天机器人应用,它能够根据用户的输入生成相应的文本回复,从而构建一个自然流畅的对话。这种技术属于人工智能领域中的自然语言处理(NLP)技术的应用,旨在提升用户与AI之间的互动体验和信息传递效率。

我理解的作用,无非就是可以直接界面化的使用模型,主要是可以调用本地模型。

安装 chatboxai

可以使用 chatboxai.app/zh 下载这个软件,主要可以直接选择本地模型,进行问答。当然现在 vscode 和一些编辑器,也有类似的插件,能够直接选择本地模型进行辅助编码也是同理。

运行 chatboxai

打开后,直接点击下面的“使用自己的 API Key 或本地模型”。

配置模型

选择 Ollama API,随后在下面的模型中找到你本地安装的 deepseek-r1:1.5b

尝试使用

可以看到,已经正常回复,但是因为1.5b参数不够多,所以回答的内容可能没这么完美,所以大家可以通过对应的电脑环境进行选择不同的参数版本。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

点击阅读全文
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐