Deepseek真的是火爆到无以复加,国内国外双重因素影响,导致官网持续繁忙中。。。虽然已经有很多云平台接入了Deepseek模型,但出于隐私,以及想更方便的管理本地知识库的考虑,在本地部署Deepseek成为了我的首选。
所以,便有了这篇教程帖。
请给我一分钟的时间,教会大家如何在本地部署Deepseek大模型,只需要三步就可以完成。
1. 下载安装两个软件:Ollama & AnythingLLM。
2. 使用Ollama下载Deepseek大模型。
3. 在AnythingLLM中完成简单配置。
偏爱视频的朋友们,短视频已经安排上了:
喜欢沉浸式阅读的朋友,咱们继续往下看吧!
PART 01 / 下载安装Ollama & AnythingLLM
进入到Ollama & AnythingLLM的官网,分别下载并安装好这两个软件。
- Ollama: https://ollama.com/
- AnythingLLM: https://anythingllm.com/
在他们各自的官网首页中就能直接下载这两个软件,他们都分别有Windows & Mac版本,大家自行选择即可:

安装过程跟我们平时在电脑上安装软件一样,这里就不再赘述了。
PART 02 / 下载Deepseek大模型
我们在Ollama(俗称羊驼)的首页会发现有Deepseek R1这个大模型,直接点击进去就可以。
在这里选择我们想要下载的大模型的版本,如果你的电脑内存不够大,那么建议选择1.5B就可以了。
如果你的电脑内存有16G或32G甚至更大,那就可以选择更高的版本。选择的大模型版本越高,对于你电脑硬件配置要求也就会更高。然后点击右侧的复制图标,就能复制安装Deepseek R1 1.5B的命令行。
接着,我们点击电脑图标,输入cmd来运行命令行提示符。
将刚才复制好的安装命令粘贴到这里,然后回车就会开始下载Deepseek R1 1.5B模型了。
当命令行中显示所有的这些文件已经显示为100%的话,就表示已经下载完成。
到这里我们就已经完成了第二步,成功下载了Deepseek R1 1.5B大模型。如果想要下载其他大模型的话,也可以在Ollama的首页搜索框中,搜索你想要的大模型。比如,我可以搜索谷歌Gemma 2,同样的操作方式就可以下载到我们想要的任意大模型版本了。
PART 03 / 简单配置AnythingLLM
最后的第三步,我们需要打开之前下载好的AnythingLLM来进行设置。
简单来说,就是要将AnythingLLM跟Ollama打通。
大家可以这样理解这两者之间的关系:Ollama是一个可以帮助我们下载不同AI大模型的工具。
下载完成之后虽然它也能直接运行,但是我们只能在命令行中运行,这就相当于非常古早的DOS系统,操作起来肯定没有那么方便。
而AnythingLLM更像是一个外挂工具,可以让Ollama从DOS系统进化到Windows系统,这样就有了更加漂亮、直观的用户交互界面,而且还有很多更多附加的功能可以使用。
运行AnythingLLM后,最开始的界面就是引导我们完成配置。
选择Ollama,然后在下面的模型当中选择我们刚刚下载好的模型。比如说,我已经下载了Deepseek R1 8B版本。
然后点击右边的箭头进入到下一步,这里全部默认就可以了。
继续点击右边的箭头,输入你的邮箱,以及使用目的,随意就行。
继续进入到下一步,随便命名一个工作区的名称,其实这就像是建了一个文件夹。
最后再点击右边的箭头,就完成了所有的设置。然后,大家会看到这样的一个界面:
我们可以点击最上面的“+新工作区”来创建更多的工作区来管理不同的项目。点击工作区旁边的上传按钮,就可以将本地电脑中的文件添加进来。
勾选文档后点击”move to workspace“,就可以添加到当前工作区了,这些文档将作为这个工作区独有的语料喂给AI大模型。
如果你通过Ollama下载了多个AI大语言模型的话,还可以点击工作区旁边的设置按钮。
点击“代理配置”,然后点击“工作区代理模型”下拉菜单,来切换不同的大语言模型。
选择好后,点击“Update workspace agent”,就完成了其它大语言模型的切换了。
到这里为止,我们就完成了本地Deepseek大模型的配置,接下来就可以自由的在本地使用任何你已经下载好的大模型了。
学会了的朋友,赶紧一键三连,转发给还没用上Deepseek的小伙们吧!
感谢支持!
来源公众号: 赛门快跑(ID:SimonS_Rush)分享海外数字营销干货
本文由 @赛门快跑 原创发布于奇赞平台,未经许可,禁止转载、采集。
该文观点仅代表作者本人,奇赞平台仅提供信息存储空间服务。