系列文章目录

第一章 Dify快速入门之环境搭建



前言

Dify是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps的理念,使开发者可以快速搭建生产级的生成式 AI 应用。


一、获取免费的阿里云服务器

  1. 首先在阿里云服务器的官网找到云服务器ECS的免费试用,建议选内存大的。免费试用一个月够学习用的了。
    在这里插入图片描述

  2. 创建并构建连接,修改初始root密码,后期使用时需要权限。

二、在Docker中部署Dify

1.前提条件

安装 Dify 之前, 请确保你的机器已满足最低安装要求:
CPU >= 2 Core
RAM >= 4 GiB

2.克隆 Dify 代码仓库

因为云服务器有Docker了,就不用自己再下载了

# 假设当前最新版本为 0.15.3
git clone https://github.com/langgenius/dify.git --branch 0.15.3

3.启动 Dify

进入 Dify 源代码的 Docker 目录

cd dify/docker

复制环境配置文件

cp .env.example .env

启动 Docker 容器 版本为V2 如果V1则 docker-compose up -d

docker compose up -d

运行成功后显示为:
在这里插入图片描述
在这里可能会提升nginx的端口被占用,那么就去.env的文件里进行修改,比如443端口改成8443,80端口改成81。可能改的地方不止一个,都改了就行。
在这里插入图片描述

最后检查是否所有容器都正常运行,能看到所有的端口号

docker compose ps

在这里插入图片描述

三、下载ollama的容器

1.拉取 Ollama 镜像

docker pull ollama/ollama

2.运行 Ollama 容器

启动容器并映射端口(默认 11434),默认情况下,模型数据会在容器删除后丢失。需挂载卷保存数据:

docker run -d -p 11434:11434 -v ollama_data:/root/.ollama --name ollama ollama/ollama

3.下载deepseek模型

我下载的是最小的,1.5b版本的

docker exec -it ollama ollama pull deepseek-r1:1.5b

下载的模型将会保存
在这里插入图片描述

3.启动模型

启动了之后就可以对话了

docker exec -it ollama ollama run deepseek-r1:1.5b

在这里插入图片描述

四、进入Dify并添加ollama下载的模型

1.通过云服务器的公有ip地址访问Dify,端口号80或81(改了情况)

在这里插入图片描述

注册并登录

2.在右上角设置里面找到模型供应商,点击ollama添加下载的模型

其中URL为http://私有地址:11434

在这里插入图片描述


总结

以上就是Dify快速入门的环境搭建,中间有些小问题可以请教deepseek网页版,下一部分开始构建聊天机器人。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐