1.聊天设置

聊天提示参考的deepseek官网,因为我没开启联网功能,所以做了调整。Deepsekk 官方建议LLM温度设为0.6。

2.向量数据库设置

3.代理设置

用来给聊天模型添加一些功能,我关了没用到的功能。

4.全局LLM首选项设置

参考官网,deepseek-r1:7b的最大输出token 是131072 。另外,将性能开到极限模式。

5.向量数据库设置

默认即可。

6.嵌入首选项设置(重要)

ollama官网查看嵌入模型nomic-embedding-text的模型参数来设置,1536是最大,也可以根据实际体验自行调整。

7.文本分块大小设置

默认即可。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐