应用场景
使用CherryStudio加载DeepSeek大模型的应用场景如下:
- 学习研究 :学生用其整理复习资料、辅助学术研究、助力论文写作;研究人员用于文献综述、分析问题等。
- 工作办公 :项目管理中生成报告、分析风险;内容创作时构思创意、撰写文案;代码开发里获取代码示例、解决问题。
- 生活娱乐 :作为智能聊天伙伴解闷陪伴,为创意活动如绘画等提供灵感启发。
- 知识管理 :个人可构建知识体系,团队能实现知识共享。
注意建议使用天翼云提供的DeepSeek镜像创建云主机,减少安装过程中可能遇到的问题。镜像选择请参考在天翼云使用Ollama运行DeepSeek的最佳实践-7B等版本-弹性云主机-最佳实践-AIGC实践 - 天翼云。
操作步骤
一、 云主机端口配置更新
首先,您需要登录天翼云控制中心,对部署DeepSeek大模型的云主机添加新的端口开放操作。通过天翼云控制台进入部署了DeepSeek大模型的云主机详情页,选择安全组,添加新的开放端口,建议选择新加114343端口,该端口是 Ollama 服务默认监听的端口。添加完成后,可在安全组规则列表中查看新添加的11434 端口规则,确认其状态为正常生效。
随后进入控制台,远程登陆即将安装AnythingLLM的云主机。
二、Cherry Studio桌面软件安装
1、下载Cherry Studio桌面软件
访问Cherry Studio官网,选择合适的软件版本并下载,本案例中以Cherry-Studio-0.9.27-setup.exe (88.1 MB) - Windows标准安装包为例。
2、安装Cherry Studio软件
找到您下载的Cherry Studio安装包,按照提示进行安装。
三、Cherry Studio实现自部署DeepSeek大模型对话
1、云主机ollama服务配置更新
对云主机上的ollama服务配置文件进行更新,添加第一部分中开放的端口。
如果您想同时在OpenWebUI以及其它服务上面启用,建议您使用11434端口,这样不用重启OpenWebUI服务。
1 # 编辑 ollama.service 服务参数,添加监听所有 ip 设置
2 vim /etc/systemd/system/ollama.service
添加内容如下:
1 Environment="OLLAMA_HOST=0.0.0.0"
2 Environment="OLLAMA_ORIGINS=*"
随后按照以下操作,重启ollama服务。
1 # 重新加载系统管理器的配置文件,使得ollama.service文件修改生效
2 sudo systemctl daemon-reload
3 # 重启 ollama 服务
4 sudo systemctl restart ollama.service
5 # 查看 ollama 服务监听端口
6 sudo netstat -tulnp | grep 11434
2、Cherry Studio中加载云主机上的ollama服务
首先,打开安装好的Cherry Studio桌面程序,找到设置按钮,请参考下图步骤进行设置,第5步中的ip 是您云主机公网的访问ip。
随后点击下方的添加按钮,输入预装的deepseek-r1:7b ,点击添加模型。
最后,按照下图提示进行对话吧。
FAQ
1、如何基于Ollama使用其它大模型?
请参考ollama模型站支持的大模型,在云主机上面下载您想要下载的大模型。
1 ollama pull $mode-name
随后在Cherry Studio上面选择启用对应的大模型,相关操作参考下图。
2、如何配置外部大模型?
参考下图步骤,填入您获取的其它大模型调用的API密钥,启用相应大模型服务。
随后,在对话框中选择对应的大模型,即可使用对应大模型服务。
3、如何启用联网搜索功能?
Cherry Studio目前已经支持的联网模型服务商有:
● Google Gemini
● 腾讯混元
● 智谱AI
注意如果您想了解更多的Cherry Studio功能,请访问Cherry Studio文档。