C#打造专属AI工作区:DeepSeek本地部署全攻略
C#打造专属AI工作区:DeepSeek本地部署全攻略
引言
在人工智能飞速发展的当下,DeepSeek 以其卓越的性能与强大的功能,成为众多开发者和技术爱好者关注的焦点。它具备强大的逻辑推理、自然语言处理、图像与视频分析等能力,在诸多领域都展现出了巨大的潜力,能够为用户提供精准且高效的服务。
对于许多企业和团队来说,将 DeepSeek 进行本地部署并实现局域网访问,有着诸多重要意义。一方面,这能够确保数据的安全性和隐私性,避免数据在云端传输和存储时可能面临的风险,让敏感数据始终处于可控范围内;另一方面,本地部署可以根据自身的业务需求和硬件条件进行灵活配置和优化,提升模型的运行效率和响应速度,还能有效降低长期使用成本。同时,通过局域网访问,团队成员之间可以方便地共享和使用模型,提高协作效率,促进业务的快速发展。
本文将详细介绍如何通过 Ollama 进行 DeepSeek 的本地部署,结合 Page Assist 浏览器插件实现便捷交互,利用 C# 进行接口调用,并最终实现局域网访问,让大家能够在自己的环境中充分发挥 DeepSeek 的强大功能。
前期准备
硬件要求
在进行 DeepSeek 本地部署时,不同模型对硬件的要求有所差异,合理的硬件配置是确保模型高效运行的基础。以下为您详细介绍不同参数规模的 DeepSeek 模型在内存和显卡方面的需求,以及对应的配置选择建议:
-
DeepSeek-R1-1.5B:对于这款模型,硬件要求相对较低。在内存方面,8GB 及以上即可满足基本需求 ,如果您的使用场景较为简单,如进行一些基础的文本生成任务,8GB 内存通常能够应对。在显卡方面,非必需配置,若想利用 GPU 加速,选择 4GB 显存及以上的显卡即可,像 GTX 1650 这类常见的入门级显卡就能发挥作用。此模型适用于低资源设备部署,如树莓派、旧款笔记本,也可用于嵌入式系统或物联网设备,以及实时文本生成、简单问答等任务。
-
DeepSeek-R1-7B 和 8B:这两款模型的硬件需求相近,推荐配置也较为相似。内存方面,建议使用 16GB 及以上,这样在处理一些中等复杂度的任务时,能够保证系统的流畅运行。显卡方面,推荐 8GB 显存及以上的显卡,RTX 3070 或 4060 这类显卡是不错的选择。它们适用于本地开发测试,特别是中小型企业的开发场景,以及中等复杂度的 NLP 任务,如文本摘要、翻译,还能用于轻量级多轮对话系统,对于需更高精度的轻量级任务,如代码生成、逻辑推理也能较好地支持。
-
DeepSeek-R1-14B:该模型对硬件要求进一步提高。内存需要 32GB 及以上,以应对复杂的计算任务。显卡则需要 16GB 显存及以上,像 RTX 4090 或 A5000 这类高端显卡才能满足其性能需求。适用于企业级复杂任务,如合同分析、报告生成,以及长文本理解与生成,例如书籍 / 论文辅助写作等场景。
-
DeepSeek-R1-32B:此模型对硬件性能要求较高。CPU 建议选择 16 核以上,如 AMD Ryzen 9 或 Intel i9 系列处理器。内存需要 64GB 及以上,以保证模型运行过程中有足够的内存空间。显卡需要 24GB 显存及以上,如 A100 40GB 或双卡 RTX 3090,适用于高精度专业领域任务,如医疗 / 法律咨询,以及多模态任务预处理等场景。
-
DeepSeek-R1-70B:模型对硬件要求非常高。CPU 需要 32 核以上的服务器级 CPU,才能提供足够的计算能力。内存需要 128GB 及以上,以满足大规模数据处理的需求。显卡方面,需要多卡并行,如 2x A100 80GB 或 4x RTX 4090,常用于科研机构 / 大型企业的高复杂度生成任务,如金融预测、大规模数据分析,以及创意写作、算法设计等场景。
-
DeepSeek-R1-671B:这是超大规模的模型,对硬件要求达到了极致。需要 64 核以上的服务器集群作为 CPU,512GB 及以上的内存,300GB 以上的硬盘存储空间,以及多节点分布式训练的显卡配置,如 8x A100/H100,主要应用于国家级 / 超大规模 AI 研究,如气候建模、基因组分析,以及通用人工智能(AGI)探索等前沿领域。
在选择硬件配置时,您可以根据自己的实际需求和预算进行综合考虑。如果您只是进行一些简单的测试和学习,选择较低配置的硬件即可;如果是用于企业级应用或科研项目,建议根据模型的硬件要求,选择性能强劲的硬件设备,以确保模型的高效运行。同时,还可以考虑使用 4-bit/8-bit 量化技术来降低显存占用,搭配 vLLM、TensorRT 等加速库提升效率。对于 70B/671B 这类超大规模模型,若硬件条件有限,优先考虑云服务以实现弹性扩展资源。
软件准备
-
Ollama:作为本地部署大模型的优秀方案,Ollama 具有诸多优势。它跨平台支持 macOS、Linux 和 Windows 系统,方便不同操作系统的用户使用。市面主流开源模型,包括 DeepSeek-R1 等 54 个开源模型都能很好地支持。并且提供 REST API,方便用户自己开发客户端或将其集成到应用系统中。其生态完善,众多开源 Web 项目、开源桌面软件支持 Ollama,还有终端工具、移动应用、开发工具库等开源项目。您可以在Ollama 官网下载安装包,下载后直接安装即可。
-
Page Assist 浏览器插件:这是一款专门为本地 AI 模型打造的浏览器插件,能够为用户提供便捷的可视化交互界面。它支持在浏览器中与本地运行的 AI 模型进行交互,可接入联网搜索,还能配合嵌入模型。支持 Chrome、Brave、Edge 等主流 Chromium 内核浏览器,以及 Firefox 浏览器。您可以在 Chrome 应用商店搜索 “Page Assist” 进行安装,也可在Firefox 商店下载安装。
-
C# 开发环境:如果您需要使用 C# 进行接口调用,就需要搭建 C# 开发环境。针对.NET Core 的集成开发环境有很多种,包括 Visual Studio、Visual Studio Code、JetBrains Rider 等 。以 Visual Studio 为例,您可以在Visual Studio 官网下载安装包。下载时,可根据自己的需求选择合适的版本,如社区版(Community)适合个人开发者和小型团队使用。安装过程中,建议默认只勾选与 C# 开发相关的组件,以减少不必要的资源占用,安装过程可能会比较缓慢,请耐心等待。
DeepSeek 本地部署
安装 Ollama
Ollama 是一款出色的本地大模型部署工具,具有诸多显著优势。它的跨平台特性使其能够在 macOS、Linux 和 Windows 系统上稳定运行,适配了绝大多数用户的操作系统环境。其支持的模型丰富多样,涵盖了市面上 54 种主流开源模型,其中就包括我们重点关注的 DeepSeek-R1 模型,为用户提供了广泛的选择空间。同时,Ollama 提供的 REST API,极大地方便了用户自行开发客户端,或者将其无缝集成到各类应用系统中,拓展了模型的应用场景。而且,Ollama 拥有完善的生态系统,众多开源 Web 项目、桌面软件对其提供支持,还有终端工具、移动应用、开发工具库等丰富的开源项目,为用户的使用和开发提供了便利。
以 Windows 系统为例,安装 Ollama 的步骤十分简单。首先,访问Ollama 官网下载页面 ,在页面中找到 “Download for Windows” 选项,点击即可开始下载安装包。下载完成后,找到下载的安装包,通常是一个名为 “OllamaSetup.exe” 的文件,双击运行它。在安装向导界面中,保持默认选项,直接点击 “Install” 按钮,安装程序便会自动进行安装。安装完成后,安装界面会自动消失,此时 Ollama 会自动启动。安装完成后,还可以通过命令行进行验证。按下 Win 键 + R,在弹出的运行窗口中输入 “cmd”,打开命令提示符窗口,在其中输入 “ollama --version”,如果显示出类似 “ollama version 0.1.25” 这样的版本号,就说明 Ollama 安装成功了。
修改 Ollama 默认配置
Ollama 安装完成后,为了使其更好地适应我们的使用需求,需要对一些默认配置进行修改。主要涉及两个关键的环境变量:OLLAMA_MODELS 和 OLLAMA_HOST。
默认情况下,Ollama 从网络下载的大模型会存储在 C 盘。然而,C 盘通常是系统盘,空间宝贵,大量模型的存储很容易导致 C 盘空间不足,影响系统的正常运行。因此,我们需要通过修改 OLLAMA_MODELS 环境变量来指定模型的存储路径。具体操作方法如下:在 Windows 系统中,搜索 “环境变量”,打开 “编辑系统环境变量” 设置窗口。在弹出的窗口中,点击 “高级” 选项卡,然后点击 “环境变量” 按钮。在 “环境变量” 对话框中,点击 “新建” 按钮,在 “新建用户变量” 窗口中,输入变量名 “OLLAMA_MODELS”,变量值则设置为你想要存储模型的文件夹路径,比如 “D:\OllamaModels” 。设置完成后,点击 “确定” 按钮保存设置。如果之前已经下载过模型,默认存储在 C:\Users\ 你的用户名.ollama\models 目录内,需要将该目录内的文件剪切到新设置的目录中,以确保模型的正常使用。
Ollama 默认只允许本机访问,为了实现局域网内其他电脑也能访问,我们需要修改 OLLAMA_HOST 环境变量。在刚才的 “环境变量” 对话框中,再次点击 “新建” 按钮,输入变量名 “OLLAMA_HOST”,变量值填写 “0.0.0.0”,这表示允许任何电脑访问。如果需要指定端口号,也可以写成 “0.0.0.0: 端口号” 的形式,Ollama 默认端口号是 11434,如果该端口被占用,可以自行指定其他未被占用的端口号。设置完成后,点击 “确定” 保存设置。修改完这些配置后,务必重启 Ollama,使新的配置生效。你可以在任务栏中找到 Ollama 的图标,右键点击选择 “退出”,然后重新启动 Ollama。
下载并安装 DeepSeek 模型
在 Ollama 中下载并安装 DeepSeek-R1 模型的过程也较为简单。首先,打开 Ollama 官网,在官网页面中找到 “Models” 选项,点击进入模型列表页面。在模型列表中,找到 “DeepSeek-R1” 模型,点击它进入模型详情页面。在模型详情页面,你可以看到 DeepSeek-R1 模型的各种版本,如 1.5b、7b、8b、14b、32b、70b、671b 等 。不同版本的模型在参数规模、性能表现和硬件需求上有所差异,你可以根据自己的硬件配置和实际需求选择合适的版本。例如,如果你的电脑配置较低,内存和显卡资源有限,可以选择 1.5b 或 7b 版本;如果电脑配置较高,拥有充足的内存和高性能的显卡,则可以选择更高版本的模型,以获得更好的性能和效果。
确定好要安装的模型版本后,复制对应的安装命令。以安装 7b 版本为例,复制 “ollama run deepseek-r1:7b” 命令。然后,以管理员身份打开命令提示符窗口(按下 Win 键 + X,选择 “Windows 终端(管理员)”),在命令提示符窗口中粘贴刚才复制的命令,然后按下回车键。此时,Ollama 会自动从网络下载 DeepSeek-R1:7b 模型,下载过程中会显示下载进度条,你只需耐心等待即可。下载完成后,会显示 “success” 字样,表示模型安装成功。安装成功后,你可以在命令提示符窗口中直接与 DeepSeek-R1 模型进行交互。例如,输入 “你好”,模型会返回相应的回答,你可以进一步提问,进行各种对话和任务测试 。
Page Assist 浏览器插件配置
安装插件
在 Chrome 浏览器中,点击浏览器右上角的三个点图标,在弹出的菜单中选择 “更多工具”,然后点击 “扩展程序”。在扩展程序页面,点击左上角的 “打开 Chrome 网上应用店” 按钮,在搜索框中输入 “Page Assist”,在搜索结果中找到 “Page Assist” 插件,点击 “添加至 Chrome” 按钮,在弹出的确认对话框中,点击 “添加扩展程序” 按钮,即可开始安装。安装完成后,插件会自动添加到浏览器的扩展栏中,你可以在扩展栏中看到 Page Assist 的图标 。
插件设置
安装完成后,点击浏览器扩展栏中的 Page Assist 图标,打开插件界面。在插件界面中,点击右上角的齿轮图标,进入设置页面。在设置页面中,找到 “语音识别” 选项,将其设置为 “简体中文”,这样在使用语音输入时,插件就能识别中文语音了。同样,在 “界面语言” 选项中,也选择 “简体中文”,使插件的界面显示为中文,方便操作。
接着,在设置页面中找到 “Ollama” 相关设置。在 “Ollama URL” 输入框中,填写 Ollama 服务器的地址,例如 “http://192.168.1.100:11434” ,这里的 “192.168.1.100” 是 Ollama 服务器在局域网中的 IP 地址,如果你部署 Ollama 的服务器 IP 地址不同,需要相应修改。然后,在 “Ollama 高级配置” 中,勾选 “启用或禁用自定义来源 URL” 选项,这样才能确保插件能够正常访问 Ollama 服务器。
另外,为了保证 Ollama 服务器与 Page Assist 插件之间的通信畅通,需要对 Ollama 服务器的防火墙进行设置。如果服务器使用的是 Windows 系统防火墙,你可以在控制面板中找到 “Windows Defender 防火墙”,点击进入后,在左侧菜单中选择 “高级设置”。在高级安全 Windows Defender 防火墙窗口中,点击左侧的 “入站规则”,然后在右侧点击 “新建规则”。在新建入站规则向导中,选择 “端口”,点击 “下一步”,选择 “TCP”,并在 “特定本地端口” 中输入 “11434”,这是 Ollama 的默认端口号,如果在部署 Ollama 时修改了端口号,这里也要相应修改。继续点击 “下一步”,选择 “允许连接”,再点击 “下一步”,保持默认的配置文件勾选,最后点击 “完成”,这样就完成了防火墙入站规则的设置,允许 Page Assist 插件通过指定端口访问 Ollama 服务器。
C# 接口调用
搭建开发环境
在进行 C# 接口调用之前,首先要搭建好开发环境。我们需要安装 C# 依赖包 OllamaSharp,它为我们提供了与 Ollama 服务器进行交互的便捷方式。打开 Visual Studio,创建一个新的 C# 项目,项目类型可以根据实际需求选择,比如控制台应用程序、Windows 窗体应用程序等。以控制台应用程序为例,在解决方案资源管理器中,右键点击项目名称,选择 “管理 NuGet 程序包” 。在 NuGet 包管理器中,搜索 “OllamaSharp”,在搜索结果中找到 “OllamaSharp” 包,点击 “安装” 按钮。安装过程中,NuGet 会自动下载并添加相关的依赖项,等待安装完成即可。
编写调用代码
安装好 OllamaSharp 依赖包后,就可以开始编写调用 DeepSeek 模型的 C# 代码了。以下是一个简单的示例代码,展示了如何使用 OllamaSharp 与 Ollama 服务器进行交互,调用 DeepSeek 模型获取回答:
using Microsoft.Extensions.AI;
using OllamaSharp;
using System;
using System.Threading.Tasks;
class Program
{
static async Task Main()
{
// 指定Ollama服务器的地址
Uri modelEndpoint = new Uri("http://localhost:11434");
// 指定要使用的模型名称,这里以deepseek-r1:14b为例
string modelName = "deepseek-r1:14b";
// 创建OllamaApiClient实例,用于与Ollama服务器通信
var chatClient = new OllamaApiClient(modelEndpoint, modelName);
// 提问内容
string question = "如何提高写作能力?";
// 发送问题并获取流式响应
var response = chatClient.GetStreamingResponseAsync(question);
Console.WriteLine($">>> 你: {question}");
Console.Write(">>>");
Console.WriteLine(">>> DeepSeek: ");
// 逐行输出模型的回答
await foreach (var item in response)
{
Console.Write(item);
}
Console.ReadLine();
}
}
代码解释:
-
Uri modelEndpoint = new Uri(“http://localhost:11434”);:定义 Ollama 服务器的地址,这里假设 Ollama 服务器在本地运行,端口号为 11434。如果 Ollama 服务器部署在其他地址或使用了不同的端口号,需要相应修改。
-
string modelName = “deepseek-r1:14b”;:指定要使用的 DeepSeek 模型版本,这里选择的是 deepseek-r1:14b 模型,你可以根据实际安装的模型版本进行修改。
-
var chatClient = new OllamaApiClient(modelEndpoint, modelName);:创建一个OllamaApiClient实例,通过这个实例可以与 Ollama 服务器进行交互,调用指定的模型。
-
string question = “如何提高写作能力?”;:定义要向模型提出的问题。
-
var response = chatClient.GetStreamingResponseAsync(question);:向 Ollama 服务器发送问题,并获取流式响应。流式响应意味着模型会边生成回答边返回,而不是等整个回答生成完毕后再返回,这样可以提高响应速度,让用户更快地看到回答内容。
-
await foreach (var item in response):使用await foreach循环来逐行读取模型的响应内容,并输出到控制台。
测试接口
编写好代码后,就可以运行程序来测试接口了。在 Visual Studio 中,点击 “启动” 按钮(通常是一个绿色的三角形图标),或者按下 F5 键来运行程序。程序运行后,会在控制台输出你提出的问题,然后等待模型的回答。模型的回答会逐行输出在控制台,你可以看到模型针对你提出的问题给出的详细解答。例如,当你运行上述代码,提问 “如何提高写作能力?”,模型可能会回答:“提高写作能力需要长期的积累和实践。以下是一些建议:1. 广泛阅读,通过阅读不同类型的书籍、文章,学习优秀的写作风格和表达方式……” 。通过这样的测试,你可以验证接口调用是否成功,以及模型是否能够正确地回答你的问题。如果在测试过程中遇到问题,比如连接失败、模型返回错误等,可以根据错误提示信息进行排查和解决。常见的问题可能包括网络连接问题、Ollama 服务器未启动、模型名称错误等,需要仔细检查代码和配置,确保一切正常。
实现局域网访问
配置 Ollama 环境变量
在实现 DeepSeek 模型的局域网访问时,配置 Ollama 的环境变量是关键的一步。主要涉及两个重要的环境变量:OLLAMA_HOST 和 OLLAMA_ORIGINS。
OLLAMA_HOST 用于指定 Ollama 服务监听的主机地址和端口。默认情况下,Ollama 绑定到 127.0.0.1:11434,这意味着只有本机可以访问。若要允许其他设备通过局域网访问 Ollama,就需要将 OLLAMA_HOST 设置为 0.0.0.0:11434 ,其中 0.0.0.0 表示监听所有可用的网络接口,这样局域网内的其他设备就能通过服务器的 IP 地址和 11434 端口来访问 Ollama 服务了。
OLLAMA_ORIGINS 则用于控制 Ollama API 的跨域请求来源(CORS)。默认情况下,Ollama 仅允许同源请求,即与 API 同域名 / 端口的请求。当我们在局域网内使用一些前端工具或自定义 Web 界面来访问 Ollama 时,可能会遇到跨域问题。为了解决这个问题,可以将 OLLAMA_ORIGINS 设置为 “*”,表示允许所有来源的请求 。当然,从安全角度考虑,也可以指定具体允许的域名或 IP 地址,例如 “http://192.168.1.100:3000”,这样就只允许该特定的地址访问 Ollama API。
在不同的操作系统中,设置环境变量的方法略有不同。在 Windows 系统中,右键点击 “此电脑”,选择 “属性”,在弹出的窗口中点击 “高级系统设置”,然后在 “高级” 选项卡中点击 “环境变量” 按钮。在 “系统变量” 区域,点击 “新建”,分别添加 OLLAMA_HOST 和 OLLAMA_ORIGINS 变量,并设置相应的值。添加完成后,点击 “确定” 保存设置。需要注意的是,修改环境变量后,要彻底重启 Ollama 服务,可以通过任务管理器终止 Ollama 进程,然后重新启动 Ollama,使新的环境变量生效。
在 Linux 系统中,如果使用 Systemd 管理服务,可以编辑 Ollama 的服务文件。使用命令 “sudo vim /etc/systemd/system/ollama.service” 打开服务文件,在 [Service] 段添加环境变量,例如 “Environment=“OLLAMA_HOST=0.0.0.0:11434”” 和 “Environment=“OLLAMA_ORIGINS=*”” 。添加完成后,保存文件,然后使用命令 “sudo systemctl daemon-reload” 重载配置,再使用 “sudo systemctl restart ollama” 重启 Ollama 服务。
在 macOS 系统中,有两种设置方式。如果要永久生效,可以编辑.bash_profile 或.zshrc 文件,在文件中添加 “export OLLAMA_HOST=0.0.0.0:11434” 和 “export OLLAMA_ORIGINS=“"” ,然后保存文件。在终端中执行 “source ~/.bash_profile” 或 “source ~/.zshrc” 使设置生效。如果只是临时生效,可以使用 launchctl 命令,例如 “launchctl setenv OLLAMA_HOST 0.0.0.0:11434” 和 “launchctl setenv OLLAMA_ORIGINS"”” ,但这种方式在重启后设置会失效。
防火墙设置
完成 Ollama 环境变量的配置后,还需要对防火墙进行相应的设置,以确保局域网内的其他设备能够顺利访问 Ollama 服务。防火墙的作用是保护计算机系统免受外部网络的非法访问和攻击,但在实现局域网访问时,它可能会阻止其他设备与 Ollama 服务器的通信。
如果服务器使用的是 Windows 系统自带的防火墙,可以通过以下步骤进行设置:打开 “控制面板”,找到 “系统和安全” 选项,点击进入后选择 “Windows 防火墙”。在 Windows 防火墙界面中,点击左侧的 “高级设置”,进入高级安全 Windows Defender 防火墙窗口。在该窗口中,点击左侧的 “入站规则”,然后在右侧点击 “新建规则”。在新建入站规则向导中,选择 “端口”,点击 “下一步”。选择 “TCP” 协议,并在 “特定本地端口” 中输入 “11434”,这是 Ollama 服务的默认端口号,如果在配置 Ollama 时修改了端口号,这里也要相应修改。继续点击 “下一步”,选择 “允许连接”,然后点击 “下一步”,保持默认的配置文件勾选,最后点击 “完成”。这样就完成了防火墙入站规则的设置,允许局域网内的其他设备通过 11434 端口访问 Ollama 服务器。
如果使用的是 Linux 系统,并且安装了防火墙软件,如 iptables 或 firewalld,也需要进行相应的配置。以 iptables 为例,可以使用以下命令开放 11434 端口:“sudo iptables -A INPUT -p tcp --dport 11434 -j ACCEPT” ,这条命令将允许 TCP 协议的 11434 端口的入站连接。如果使用的是 firewalld,可以使用以下命令开放端口:“sudo firewall-cmd --zone=public --add-port=11434/tcp --permanent” ,然后执行 “sudo firewall-cmd --reload” 使设置生效。
在 macOS 系统中,打开 “系统偏好设置”,点击 “安全性与隐私”,然后点击 “防火墙” 选项卡。如果防火墙处于开启状态,点击左下角的锁图标解锁,然后点击 “防火墙选项”。在防火墙选项中,点击 “+” 按钮,添加 Ollama 应用程序,确保 Ollama 应用程序允许接受传入连接。或者直接在 “允许传入连接” 列表中,找到 “Ollama” 并勾选其前面的复选框,以允许 Ollama 通过防火墙进行通信。通过合理配置防火墙,能够在保障系统安全的前提下,实现 DeepSeek 模型在局域网内的顺利访问。
局域网内其他设备访问
完成上述 Ollama 环境变量配置和防火墙设置后,局域网内的其他设备就可以访问部署的 DeepSeek 模型了。
如果使用 Page Assist 浏览器插件进行访问,在其他设备的浏览器中打开 Page Assist 插件。在插件设置中,将 “Ollama URL” 修改为 Ollama 服务器在局域网中的 IP 地址和端口号,例如 “http://192.168.1.100:11434” ,这里的 “192.168.1.100” 是 Ollama 服务器的 IP 地址,需根据实际情况进行修改。设置完成后,就可以在 Page Assist 插件中与 DeepSeek 模型进行交互了,输入问题,模型会返回相应的回答,就像在本地访问一样方便。
如果使用 C# 编写的客户端进行访问,在客户端代码中,修改 Ollama 服务器的地址。例如,在之前的 C# 示例代码中,将 “Uri modelEndpoint = new Uri (“http://localhost:11434”);” 修改为 “Uri modelEndpoint = new Uri (“http://192.168.1.100:11434”);” ,同样,这里的 IP 地址要根据 Ollama 服务器的实际 IP 地址进行调整。修改完成后,重新运行 C# 客户端程序,就可以通过局域网与 DeepSeek 模型进行通信,实现接口调用,获取模型的回答。
除了上述两种方式,还可以使用其他支持 Ollama 的客户端应用程序进行访问。这些客户端应用程序通常具有不同的功能和特点,例如有的支持语音交互,有的支持文档解析等。在局域网内的设备上安装相应的客户端应用程序后,在应用程序的设置中,配置 Ollama 服务器的地址和端口,即可实现对 DeepSeek 模型的访问。通过这些方式,局域网内的不同设备都能够便捷地使用部署的 DeepSeek 模型,充分发挥其强大的功能,满足各种业务和学习需求。
更多推荐
所有评论(0)