
deepseek 最佳配置 Anything LLM
聊天提示参考的deepseek官网,因为我没开启联网功能,所以做了调整。Deepsekk 官方建议LLM温度设为0.6。
·
1.聊天设置
聊天提示参考的deepseek官网,因为我没开启联网功能,所以做了调整。Deepsekk 官方建议LLM温度设为0.6。
2.向量数据库设置
3.代理设置
用来给聊天模型添加一些功能,我关了没用到的功能。
4.全局LLM首选项设置
参考官网,deepseek-r1:7b的最大输出token 是131072 。另外,将性能开到极限模式。
5.向量数据库设置
默认即可。
6.嵌入首选项设置(重要)
ollama官网查看嵌入模型nomic-embedding-text的模型参数来设置,1536是最大,也可以根据实际体验自行调整。
7.文本分块大小设置
默认即可。
更多推荐
所有评论(0)