总是看到"服务器繁忙,请稍后再试。"?不如本地部署一个deepseek,还能缓解服务器压力。
前言
当你充满期待地打开chat.deepseek.com,写好了提示词,想要将你的deepseek-R1调教成猫娘时,你看到了这个美妙の提示:
你又点了好多遍重试,得到的却是同一个结果,不用想了,要么用户太多,大家聊得太激情,要么就是服务器被攻击了。
这时候,大多数人会选择等着,而你既然来到这篇文章,你肯定是不愿意等下去的,接下来,我们将使用ollama+AnythingLLM搭建一个属于自己的Deepseek,让你随时都可以和猫娘聊天。
*注意:如果你想要的是满血deepseek(671b参数,也就是网页版使用的模型),那就得要非常高配的显卡,需要的可能还不止一张,所以这期我们只能搭建稍微低配一点的(8b,14b,32b这样的),但其实也挺好用,聊聊天的话不比满血版差很多。
搭建效果:
我没有GPU/GPU配置太低
可以考虑选择算力租用平台,友情推荐慧星云。注册即送15¥体验金、30减10满减优惠以及5折券,实名即送50减30满减券,首充送50减30满减券以及6¥体验金。来到GPU市场,选择NVIDA 4090,选择按时计费,镜像选择windows,就可以愉快运行deepseek模型啦!
咳咳,慧星云广告费结一下,谢谢
我真没拿到广告费啊兄弟们 就是想推荐一下罢了 我想要也拿不到啊(悲)
安装ollama、DeepSeek模型
如果不是特殊网络环境,记得使用一些魔法,不然下载可能会很慢的哟
首先,来到ollama官网点击“Download for Windows”下载软件,一路下一步完成安装。
我们发先ollama被默认安装到了C盘,而C盘的空间不一定够下载模型,所以接下来,我们把模型下载位置修改到“D:/ollama”(或者你喜欢的路径)。
右键“此电脑”图标,点击属性,找到高级系统设置,点击环境变量,在系统变量里新建一个变量名为“OLLAMA_MODELS”,变量值为你想要的路径(我写的是D:\ollama),再点3次确定即可!
接下来,重启电脑让环境变量生效。可以开始安装Deepseek模型了!
按下"Win+R",输入"cmd",输入"ollama run deepseek-r1:1.5b",等待模型下载完成即可。(这里需要注意一点,你需要根据自己GPU性能来判断选择什么模型,一共有这样几个模型:1.5b, 7b, 8b, 14b, 32b, 70b, 641b)
下载完成后,会进入命令行聊天界面,可以先发一个你好试试,然后按Crtl+D停止对话。
安装AnyThingLLM、接入ollama配置
前往AnyThingLLM官网下载软件,一般选择“Download for Windows(x64)”。运行安装程序,无脑下一步就可以了。安装时间可能会有点长,大家要耐心等待哦,可以先玩玩命令行的deepseek。
如果你看到了以下界面,恭喜你,安装成功了!
点击“Get Started”,这里选择ollama。
底下有一个“Ollama Model”,选择你刚才下载的那个就行了。
下两页都不用管,点右边的箭头继续。
这里随便写什么,比如我这里写“AI”。
看到这个界面,恭喜你,可以开始聊天了~
选择你创建的工作区,给AI发条消息试试。
我们还可以开启联网搜索功能,在这里可以设置。
需要注意的是,这些搜索引擎大多要付费,免费的国内也用不了,需要提前做好魔法哟!
尾声
更多有趣的功能,就由大家自己探索啦,笔者在这里不再赘述,最后,祝大家玩得开心!如果有问题,欢迎在评论区留言,我们下期见!