人工智能技术日新月异的今天,DeepSeek以其领先的模型架构和极具竞争力的服务方案,正在重新定义行业标准。今天让我们用三种方式部署Deepseek,话不多说,开始吧!

方法一:逆向DeepseekAPI

仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!

效果示例

在这里插入图片描述

多轮对话Demo

在这里插入图片描述

联网搜索Demo

在这里插入图片描述

接入准备

请确保您在中国境内或者拥有中国境内的服务器,否则部署后可能因无法访问DeepSeek而无法使用。

DeepSeek 获取userToken value

进入DeepSeek随便发起一个对话,然后F12打开开发者工具,从Application > LocalStorage中找到userToken中的value值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
在这里插入图片描述

多账号接入

目前同个账号同时只能有一路输出,你可以通过提供多个账号的userToken value并使用,拼接提供:

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

每次请求服务会从中挑选一个。

Docker部署

请准备一台具有公网IP的服务器并将8000端口开放。拉取镜像并启动服务。

docker run -it -d --init --name deepseek-free-api -p 8000:8000 -e TZ=Asia/Shanghai  vinlic/deepseek-free-api:latest
# 或将token配置在环境变量
docker run -it -d --init --name deepseek-free-api -p 8000:8000 -e TZ=Asia/Shanghai -e DEEP_SEEK_CHAT_AUTHORIZATION=xxx  vinlic/deepseek-free-api:latest

查看服务实时日志

docker logs -f deepseek-free-api

重启服务

docker restart deepseek-free-api

停止服务

docker stop deepseek-free-api

Docker-compose部署

version: '3'

services:
  deepseek-free-api:
    container_name: deepseek-free-api
    image: vinlic/deepseek-free-api:latest
    restart: always
    ports:
      - "8000:8000"
    environment:
      - TZ=Asia/Shanghai

部署成功后可使用one-api对API进行管理,并对接各种AI应用。

逆向API优缺点

优点:可以免费使用deepseek官方服务,使用门槛低。
缺点:模型单一,不稳定。

方法二:使用中转服务

相比较自己逆向,使用中转服务,API的可靠性有了显著的提升,只需要很低的费用就能体验到官方最新的模型。
这里给大家推荐一个我使用最多的中转API: 阿波罗AI
已支持 deepseek/Janus-Pro-7BDeepseek R1Deepseek v3 高并发,比官方更优惠,R1、V3
优点:
SSVIP 分组提供自部署满血版渠道+官方 API 渠道,稳定性高;全模型可用。
Origin 分组为纯官方 API 渠道
缺点:并不是免费的。
在这里插入图片描述

对接教程

  1. 登录平台
  2. 查看模型列表和模型详情
  3. 获取 Api Key 和 Base URL
  4. 调用API

我们完全对齐 OpenAI 官方 OpenAI Docs 和 OpenAI API Reference,使用方法完全一致。基于官方 Model Endpoint Compatibility,在需要使用OpenAI API的地方,将 api.openai.com 替换为平台获取的 Base_URL 即可

替换示例

官方 : https://api.openai.com/v1/chat/completions
中转API : https://{{Base_URL}}/v1/chat/completions
请注意:
有些App或者网站,API_Base为:https://api.openai.com 或 https://api.openai.com/v1
此时应该替换为:https://{{Base_URL}}https://{{Base_URL}}/v1
代码中调用请注意:
关于API KEY的填写,在Header的Authorization参数里,将管理后台-API KEYS里生成的API KEY填在Bearer后面,比如Bearer sk-xxxxxxx

方法三:本地部署

本地部署可以使用ollama,下载地址:https://ollama.com/download
在https://ollama.com/官网搜索相关模型:
在这里插入图片描述
选择你要下载的模型,安装即可。

配置要求

模型大小 显存需求 (FP16 推理) 显存需求 (INT8 推理) 推荐显卡 macOS 需要的 RAM
1.5B ~3GB ~2GB RTX 2060 / Mac GPU 可运行 8GB
7B ~14GB ~10GB RTX 3060 12GB / 4070 Ti 16GB
8B ~16GB ~12GB RTX 4070 / Mac GPU 高效运行 16GB
14B ~28GB ~20GB RTX 4090 / A100-40G 32GB
32B ~64GB ~48GB A100-80G / 2x RTX 4090 64GB

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/745105ec9dae40849978535e613ce2b9.png

点击阅读全文
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐