是不是也羡慕ChatGPT的强大,却担心隐私泄露?想拥有专属AI助手,但不懂代码?今天教你用 Dify DeepSeek,半小时搭建完全本地化的AI应用,无需联网、数据不外传,还能自定义知识库!

为什么选择这套方案? 

✅ 企业级数据安全:所有运算在本地完成,彻底告别数据外传风险 

✅ 零代码开发:可视化流程搭建,文科生也能玩转AI 

✅ 文档秒变知识库:支持PDF/Word/TXT文件训练,让AI真正"懂业务" 

✅ 灵活API对接:轻松集成现有OA/CRM系统(开发者也友好)

实验背景:

公司接上级要求需要部署Deepseek,然后呢,恰好这个任务就落到了学长手里,因为学长个人能力有限所以最后这个任务交给了公司的研发团队去搭建部署,接下来学长对公司研发使用的技术进行复现。

安装环境:

类型

企业服务器环境

本次实验环境

操作系统

Ubuntu 24.04

Windows 11专业版

GPU

NVIDIA A40(48GB)

RTX 3060(8GB)

内存

64GB DDR4

16GB DDR4

存储

1TB NVMe SSD

512GB SSD

三步部署教学(Windows版)

 🚀 Step 1:部署Ollama引擎 

1️⃣ 解压安装包后双击运行(文末附下载链接) 

2️⃣ 打开PowerShell验证安装:

ollama -v  显示版本号即成功

图片

同时将OLLAMA_HOST 0.0.0.0 添加到用户变量中,并保存。

图片

3️⃣ 拉取DeepSeek-R1模型:

首次运行如果本地没有安装会先进行下载

ollama run deepseek-r1:1.5b  推荐1.5B轻量版

🐳 Step 2:配置Docker环境 

1️⃣ 安装Docker Desktop(默认设置即可) 

Docker Desktop installer的安装包放在文末。

2️⃣ 关键步骤:修改镜像源加速:

docker安装完毕需要换个源否则会出现拉去dify需要的环境失败的问题,将下述代码进行复制并替换。

{  "registry-mirrors": [    "https://docker.1ms.run",    "https://hub.rat.dev",    "https://docker.1panel.live"  ]}

图片

3️⃣ 解压Dify-main至D盘根目录并重命名为dify(路径建议:D:\dify)  

⚙️ Step3:安装Dify(安装包在文末获取) 

 1️⃣ 进入docker目录,将.env.example重命名为.env 

图片

 2️⃣ 在当前目录启动终端:

docker compose up -d 

图片

3️⃣ 浏览器访问http://localhost/install完成初始化配置

配置登录的账号和密码,配置完成后进入输入邮箱+密码登录,然后点击用户,点击设置将语言选择为中文。

图片

图片

接下来就是点击设置,将本地的模型添加至Dify,至此安装完成。

图片

图片

Dify使用演示:

点击工作室,创建空白应用,选择聊天助手,名称可以随便起,比如我想创建一个java相关的ai,所以就起名叫java助手,然后选择我们的本地模型,在上下文中可以勾选我们上传的文档,在右边进行提问可以看到ai的回答已经调用了我们上传的文档。

图片

图片

docker安装包链接:https://pan.quark.cn/s/e76cab94d0de

ollama安装包链接:https://pan.quark.cn/s/b2c1b0a5d1cd

Dify安装包链接:https://pan.quark.cn/s/e63b06bcefcd

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐