SiliconFlow-cherryStudio-Ollama-DeepSeek-Anything-OfficeAI
集成成功后,在 cherry studio 的设计与开发流程中,就能调用硅基流动的智能图像识别、自然语言处理等功能,为创作提供强大助力。选择你需要调用的大模型,如 deepseek 或 qwen,输入之前创建的 key,即可根据需求输入文本,调用模型进行文本生成、翻译、问答等操作。完成配置后,启动 ollama 服务,即可在本地运行 deepseek 模型,享受本地化的智能服务。今天,我将以技术推
SiliconFlow-cherryStudio-Ollama-DeepSeek-Anythingllm-OfficeAI
在当今人工智能蓬勃发展的浪潮下,技术的集成与融合成为释放其无限潜力的关键钥匙。今天,我将以技术推广大拿的身份,为大家详细介绍一系列强大工具的集成配置方法,帮助大家轻松踏入高效智能的新时代。
一、硅基流动:大模型调用的超级枢纽
硅基流动作为核心平台,整合了 deepseek、qwen 等超多大模型,为用户提供了丰富的智能服务选择。现在加入赠送2000万tokens!
1. 创建调用 key
访问硅基流动官方平台,完成注册登录。
在平台的个人中心或密钥管理板块,按照提示创建专属的调用 key。这个 key 是你调用各类大模型的通行证,务必妥善保管。
2. 调用大模型
打开硅基流动的操作界面,找到 “模型调用” 选项。
选择你需要调用的大模型,如 deepseek 或 qwen,输入之前创建的 key,即可根据需求输入文本,调用模型进行文本生成、翻译、问答等操作。凭借其强大的整合能力,硅基流动让你轻松拥有 N 种大模型的强大功能。
二、cherry studio 集成硅基流动 api - key
1. 获取硅基流动 api - key
在硅基流动平台的设置中,生成专门用于 cherry studio 集成的 api - key。
2. 集成到 cherry studio
打开 cherry studio,进入设置页面,找到 “外部服务集成” 或类似的入口。
在集成选项中选择 “硅基流动”,将获取的 api - key 填入相应位置,进行验证和授权。集成成功后,在 cherry studio 的设计与开发流程中,就能调用硅基流动的智能图像识别、自然语言处理等功能,为创作提供强大助力。
三、本地部署 ollama + deepseek
1. 安装 ollama
前往 ollama 的官方网站,根据你的操作系统(Windows、Linux 或 macOS)下载对应的安装包。
运行安装包,按照安装向导的提示完成 ollama 的安装,注意选择合适的安装路径。
2. 配置 deepseek 模型
从 ollama官方获取适合本地部署的模型文件。
将模型文件放置到 ollama 指定的模型存储目录下。
打开 ollama 的配置文件,添加关于 deepseek 模型的相关配置信息,如模型名称、存储路径等。完成配置后,启动 ollama 服务,即可在本地运行 deepseek 模型,享受本地化的智能服务。
四、cherry studio 中加入本地 ollama
配置 ollama 连接
打开 cherry studio 的插件设置,找到 ollama 插件选项。
输入本地 ollama 服务的地址和端口(一般为默认设置),进行连接测试。连接成功后,在 cherry studio 中就可以调用本地 ollama 运行的模型,用于文档生成、创意辅助等设计任务,提升工作效率。
五、office - ai 接入硅基流动与 ollama 本地大模型
1. 接入硅基流动
打开 office - ai 的设置界面,找到 “外部服务接入” 选项。
选择硅基流动,输入在硅基流动平台获取的 api - key,完成授权和配置。之后在使用 office 软件处理文档、表格时,就能借助硅基流动实现智能内容生成、语法检查、数据智能分析等功能。
2. 接入 ollama 本地大模型
确保本地 ollama 服务已经正常运行。
在 office - ai 的设置中找到 “本地模型接入” 入口。
输入本地 ollama 服务的地址、端口等相关信息,选择要接入的 ollama 本地大模型。配置完成后,即可在本地利用 ollama 大模型进行办公智能化处理,如文档智能排版、自动生成报告大纲等。
六、anythingllm 加入创建本地知识库
配置知识库
打开 anything,找到插件设置入口。
选择需要索引的本地文件夹或磁盘分区,设置文件类型过滤、关键词提取等索引规则。
启动知识库创建过程,等待 anything 完成对本地文件的索引和知识整理。完成后,通过关键词搜索,就能快速获取所需信息,实现高效的知识管理。
七、corsur 加入硅基流动和 ollama 本地大模型
1. 接入硅基流动
在 corsur 的设置选项中,找到 “外部服务集成”。
选择硅基流动,输入相应的 api - key,完成授权和配置。接入后,在 corsur 进行编程时,可以调用硅基流动的自然语言处理能力,实现代码注释自动生成、代码翻译等功能。
2. 接入 ollama 本地大模型
确保本地 ollama 服务正常运行。
在 corsur 中找到 “本地模型接入” 设置。
输入本地 ollama 服务的地址、端口等信息,选择要接入的 ollama 本地大模型。配置完成后,ollama 本地大模型可以辅助代码智能补全、错误分析等,大幅提高编程效率。
通过以上这些简单的配置方法,你可以轻松实现各项技术的集成,让人工智能技术深度融入你的工作和生活。无论是设计创作、办公处理还是编程开发,这些技术集成将为你带来前所未有的便捷与高效。赶快行动起来,体验智能技术集成的魅力吧!如果你在配置过程中遇到任何问题,欢迎随时交流。
更多推荐
所有评论(0)