本地部署 DeepSeek:打造你的专属 AI 推理环境,简单明了适合新手

随着 AI 大模型的爆发,DeepSeek 作为一款备受瞩目的开源大模型,吸引了众多开发者的关注。 如何在本地搭建 DeepSeek 推理环境,以便更高效地进行 AI 研究和应用开发? 本篇文章将为你详细解析本地部署 DeepSeek 的完整流程,让你轻松打造属于自己的 AI 推理环境。

随着 AI 大模型的爆发,DeepSeek 作为一款备受瞩目的开源大模型,吸引了众多开发者的关注。如何在本地搭建 DeepSeek 推理环境,以便更高效地进行 AI 研究和应用开发?本篇文章将为你详细解析本地部署 DeepSeek 的完整流程,让你轻松打造属于自己的 AI 推理环境。

准备工作

首先我们要准备一台电脑,配置越高当然越好,不过我的测试本是一个比较老旧的 MBP,配置如图:

图片

同时,要在本地搭建好 Python 环境,这个不在这里赘述。

接下来本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek,在 Cherry Studio 中使用 DeepSeek

安装 Ollama

首先打开 Ollama 的官方网站:https://ollama.com/,如图:

图片

点击 Download,会进入到如下页面:

图片

点击 Download for macOS 即可进行下载

图片

下载完成后解压安装。解压后会产生一个 Ollama.app。我们只需要将这个 app 移动到应用程序中即可。如图:

图片

然后接下来我们找到应用程序中的 Ollama,点击进行安装

图片

会出现如图所示的页面,只需点击 Next 即可

图片

当点击完 Next 后会出现下图所示的页面,我们继续点击 Install 即可。

图片

最后会出现 Finnish 页面,

图片

安装好 Ollama 后 Mac 的通知栏会有一个类似下图的下图标,说明安装完毕

图片

至此 Ollama 安装告一段落。

配置 Models

当安装完 Ollama 后,我们需要回到 Ollama 的官网找到 Models 去下载我们的模型,如图:点击 Download

图片

点击完 Download 后会出现下图所示的页面,也就是我们所需要的东西:

图片

我们点击 deepseek-r1。此时会出现如下页面

图片

因为测试电脑的硬盘原因我们选择的是 8B 版的。可因个人需要进行调整。选择好 8B 版本后。复制图中的命令进行留存,后面会用到。

图片

打开我们 Mac 的终端。输入上面我们记住的命令。记住要将命令中的 run 替换成 pull 然后执行下载。结果如图所示,出现 success 说明安装成功

图片

安装配置 Cherry Studio

首先打开 Cherry Studio 官网:https://cherry-ai.com 点击下载客户端。如图:

图片

下载完成后会有一个 cherry studio 的 dmg 文件,双击安装即可。

图片

安装完成 Cherry Studio 后。我们在应用程序中找到并打开它。如图:

图片

我们点击上图中:设置的小图标,进行配置模型。选择 Ollama。然后点击管理

图片

接着选择我们下载的 8B 版本,或者是你下载的版本。

图片

配置完成后,我们回到聊天助手那里

图片

接着按图操作:

图片

最后一步是在设置中配置模型参数:

图片

至此 Cherry Studio 设置完毕。

测试

我们就可以进行测试啦:

图片

通过本地部署 DeepSeek,我们可以打造属于自己的 AI 语言模型推理环境,无需依赖云端 API,同时能够获得更高的安全性和可控性。

相关资讯

LLM时代,计算蛋白质科学进展如何?香港理工大学等发布系统性综述

编辑丨coisini作为生命的基本构建单元,蛋白质在几乎所有基本生命活动中扮演着不可或缺的角色,例如新陈代谢、信号传导、免疫反应等。 如下图所示,蛋白质遵循序列 - 结构 - 功能范式。 图注:蛋白质遵循序列-结构-功能范式。

清华大学AIR联合水木分子开源DeepSeek版多模态生物医药大模型BioMedGPT-R1

编辑 | ScienceAI2025 年初,DeepSeek给全球引发了 AI 大模型的新一轮热议。 多家市场咨询公司指出,在 DeepSeek 的影响下,从大模型供应商到基础设施和平台供应商的整个 AI 产业生态都掀起了一波「新浪潮」。  DeepSeek R1 以其强大的推理能力,为各行各业带来了智能化升级新机遇。

Meta公布BLT新架构:告别token,拥抱patch

译者 | 核子可乐审校 | 重楼Meta发布的BLT架构为大模型扩展找到又一条出路,也开启了用patch方法取代token的全新可能性。 开篇先提问:我们为什么非得把文本拆分成token? 直接用原始字节怎么就不行?