
无需魔法,无GPU,windows10,本地知识库部署DeepSeek-r1:1.5b/7b试用体验
花了一天时间在windows10上安装了本地的DeepSeek-r1:7b、DeepSeek-r1:1.5b和qw2.5:7b,导入几项国标作为本地知识库进行问答,先上效果:
总体来说,回答效果没有联网的满血版好,也很慢,但是跑起来了;
然后又安装了DeepSeek-r1:1.5b,速度很快,但是很多简单的问题都回答得不好,本地知识库还能识别多模态表格,但是问题回答错了
qw2.5:7b直接提问
qw2.5:7b基于本地知识库提问,温度分别设置为默认、1和0.3的回答结果:
豆包、deepseek联网版、deepseek满血版等回答结果:
AskManyAI
O4-mini/GPT-4.1/Grok-3-Thinking/Gemini 2.5 Pro/GPT-4o mini等回答结果:
一个更比一个强,还要啥自行车,赶紧用起来,多个大模型说的可以对比着看,哈哈
参考:
1.docker/ollama/dify安装十分钟用DeepSeek v3快速搭建企业级本地私有知识库(保姆级教程),AI终于私有化了!_deepseek 企业知识库-CSDN博客https://blog.csdn.net/python12345_/article/details/145450272
2.dify镜像源设置windows环境下安装部署dify+本地知识库+线上模型_dify 本地部署windows-CSDN博客https://blog.csdn.net/zzm628/article/details/1461279123.硬件配置:个人荣耀I7笔记本电脑选择了7b,只用了CPU,有点慢,后续安装CUDA试试,10w以内配置服务器可以实现企业级应用,linux部署成本高一些
本地部署 DeepSeek 硬件配置清单,看到满血版价格想想还是算了 - 知乎
DeepSeek-R1模型全解析:从1.5B到671B,硬件需求与适用场景详解_人工智能_LLand520-DeepSeek技术社区
4.参数设置:主要是温度,其他参数界面上也有提示,可以试试看或者直接问问大模型
DeepSeek实用指南(三):温度参数调节全攻略——从原理到实战,解锁模型生成的最优解!_deepseek温度设置步骤详解-CSDN博客
5.在线聚合AI推荐:AskManyAI,无需魔法一次性使用几乎全部顶级大模型:目前我知道的更新最快最全的聚合AI平台,用我的专属链接 https://askmany.cn/login?i=b6b0e088,注册和邀请双方都送100充值券,不充VIP也有不少免费的大模型可以用,亲测好用,强烈安利
6.在线个人知识库AI推荐:纳米AI - 大模型
7.AutoDL4卡4090部署671B满血版,以内存换显存,博主的意思是单卡也可以安装671B满血版一文速览DeepSeek-R1的本地部署——可联网、可实现本地知识库问答:包括671B满血版和各个蒸馏版的部署(含单卡4090部署671B)_v_JULY_v-2048 AI社区
更多推荐
所有评论(0)