💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
- 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老
- 导航
- 檀越剑指大厂系列:全面总结 java 核心技术,jvm,并发编程 redis,kafka,Spring,微服务等
- 常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,typora 等
- 数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等
- 新空间代码工作室:提供各种软件服务,承接各种毕业设计,毕业论文等
- 懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作
- 数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂
非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨
博客目录
- 前言
- 1. 环境准备
- 2. 部署 Ollama
- 3.本地部署 deepseek-r1 模型
- 4. Page Assist 浏览器插件安装与配置
- 5. 安装内网穿透
- 5.1 开启 ssh 连接安装 cpolar
- 5.2 创建远程连接公网地址
- 6. 配置固定公网地址
前言
今天和大家分享一下如何在本地的 fnOS 飞牛云 NAS 中部署 DeepSeek-R1 大模型,并结合 cpolar 内网穿透工具轻松实现远程访问与使用本地大模型,无需公网 IP 也不用准备云服务器那么麻烦。
随着越来越多的人知道并了解了 DeepSeek 的强大,官方自然也收获了更多人的关注。访问的人一多,就经常出现服务器繁忙的情况。不过对于了解一些技术知识的人来说,选择在本地部署 DeepSeek 就能轻松解决这个问题。
现在本地部署的方案很多,如果是轻量级的 DeepSeek 模型,那么使用家用级的硬件就可以。如果希望体验满血版的 DeepSeek,那么可能需要调用一些服务商的 API 接口,或者是相对配置较高的硬件来实现纯本地部署来获得更佳的使用效果与隐私保护。
而像 NAS 这种 24 小时开机的形式,就很适合部署大模型,方便我们随时访问进行提问。今天笔者就在飞牛云 NAS 上分享一下如何本地部署 DeepSeek,根据大家安装 fnOS 的硬件配置不同,可以选择的模型规模也从 1.5B 到 70B,甚至 671B 不等。大家自己根据实际情况选择即可,下面就来进行具体操作演示。
1. 环境准备
fnOS、Ollama、DeepSeek-R1 模型、Page Assist 浏览器插件:本地 AI 模型的 Web UI
fnOS 基于最新 Linux 内核(Debian 发行版)深度开发,兼容主流 x86 硬件,灵活扩展外部存储。
如果您想要在 x86 架构的物理机中安装,可以访问飞牛私有云 fnOS官网下载镜像文件然后使用 U 盘写入镜像后,进入 bios 设置 U 盘启动后像装 Windows 系统一样安装即可。
本例中使用 VMware Workstation 安装的 fnOS 虚拟机,系统版本为 V0.8.37。如果不知道如何在虚拟机中安装,可以参考这篇文章:VMware 中安装飞牛云(fnOS) NAS 系统
其他软件在安装好 fnOS 后,使用 Docker 与命令行进行安装。
2. 部署 Ollama
首先启动 fnOS,可以看到飞牛云 nas 的 Web UI 界面的地址:
在浏览器中访问即可(账号密码在安装 fnos 时设置):
为了能正常使用 Deepseek-R1 模型,我们首先需要部署本地大模型运行工具:Ollama
打开 Docker,选择镜像仓库,在搜索框中输入 ollama,第一个 1K+星星的就是,点击下载按钮:
选择默认的 latest 镜像标签,确定:
然后在本地镜像中能看到正在下载 ollama 镜像:
如果不能正常下载,或者下载失败,那么大家可以点击镜像仓库 → 右上角仓库设置 → 点击添加 → 名字随便填,地址填入地址:https://docker.1ms.run 填写完成之后选择新添加的仓库,点击启用。
Ollama 镜像下载完毕后,点击运行按钮,开始创建 ollama 容器:
勾选开机自动开启容器,下一步:
在高级设置的储存位置中,点击添加路径:
在我的文件路径中,点击左下角的新建文件夹,创建一个名为 docker 的文件夹:
然后选择它,点击确定:
在装载路径中填写:/root/.ollama
然后,点击下方的环境变量:
点击添加变量,变量名输入 OLLAMA_ORIGINS 值输入 *
然后点击下一步:
确认信息无误后,点击创建 ollama 容器:
然后点击左侧容器,可以看到 ollama 容器已经显示绿色正常运行状态,点击后边的更多按钮:
打开终端:
点击连接:
3.本地部署 deepseek-r1 模型
现在我们就可以在终端中通过命令行来安装 deepseek-r1 模型了:
安装 deepseek-r1 模型的命令我们可以访问 ollama 官网:https://ollama.com/download
点击 Model:页面跳转后可以看到第一个就是 DeepSeek-r1 模型:
找到你想要下载的各种量级的 deepseek-r1 模型,右边就是对应的模型下载命令,如果你安装 fnOS 飞牛云 NAS 的主机配置较高,可以选择 32B 或者 70B 模型,更多参数配置可以参考下图:
我这里下载 1.5b 的轻量级 deepseek 模型进行演示,在终端中执行这个命令就能下载了:
ollama run deepseek-r1:1.5b
可以看到已经开始下载 deepseek-r1:1.5b 模型了:
等待一会儿后,会看到 success 提示,现在已经成功在本地部署好了 deepseek-r1:1.5b 模型了:
我们可以直接在终端中与它进行对话:
现在已经完成了在本地 fnOS 飞牛云 NAS 中部署 deepseek-r1 模型与 AI 进行聊天了!
但是在终端界面中聊天可能不是很美观,而且在复制回答时也不太方便,我们可以通过安装一个 Web UI 界面来解决这个问题。
4. Page Assist 浏览器插件安装与配置
通过在电脑中安装 Page Assist 浏览器插件是目前相对简单的一个 Web UI 解决方案,可以在 Chrome 浏览器的应用商店中在线安装,也可以下载应用程序后离线安装。
Github 官网:https://github.com/n4ze3m/page-assist
安装后在 Chrome 浏览器中接入刚才部署的 Ollama 地址,就可以在任何有网络的设备中使用 Chrome 浏览器在网页中与 DeepSeek 对话,享受更方便快捷的 AI 交互体验。
首先打开 Chrome 浏览器,进入应用商店:
在顶部搜索框中搜索 Page Assist:
点击添加至 Chrome:
在弹出的提示框中点击添加扩展程序:
添加后在浏览器右上角的扩展程序图标中打开它即可看到 Web UI 界面了:
PS:如果访问不了 chrome 应用商店添加插件,我已打包插件文件到网盘,需要的可以自取:
链接: https://pan.baidu.com/s/1gzrgj1os64-VDOm1oWO0dA?pwd=6666 提取码: 6666
下载好插件文件后,在 chrome 浏览器中输入:
chrome://extensions/
进入扩展程序安装界面将插件文件拖入这个界面,点击安装扩展程序即可。
回到 Page Assist 的 Web UI 主界面,点击右上角设置–ollama 设置,将模型地址进行修改为你的飞牛云 NAS 的 IP 地址+ollama 端口号,就能实现同一局域网内的其他小伙伴在浏览器中安装了 Page Assist 插件后,也可以直接访问你在本地部署的 DeepSeek 大模型了!
回到 Page Assist 的 Web UI 主界面,点击上方模型选择可以看到刚才本地部署的 deepseek-r1:1.5b:
选择好模型后即可在下方输入框中与 deepseek 聊天啦!
底部联网开关打开,还可以进行联网搜索:
点击左上角展开侧边栏图标可以看到聊天历史记录:
点击右上角三个点按钮,可以复制与下载回答,支持多种格式:
5. 安装内网穿透
我们现在已经实现了在本地 fnOS 飞牛云 NAS 中部署 Ollama 并接入 Deepseek-R1 模型,并在 Chrome 浏览器中安装 Page Assist 插件快速搭建本地 AI 模型的 Web UI 界面实现同一局域网内用户都能在网页中与 AI 模型聊天。
但如果你的主机配置很不错,想让异地好友或者同事也能远程使用你在本地飞牛云 NAS 中部署的 deepseek 大模型应该怎么办呢?很简单,只要安装一个 cpolar 内网穿透工具就能轻松实现远程访问内网主机中部署的服务了,他人无需二次部署,节约成本,提高效率,接下来介绍一下如何安装 cpolar 内网穿透。
cpolar 官网地址: https://www.cpolar.com
5.1 开启 ssh 连接安装 cpolar
首先打开飞牛云 NAS 设置界面,开启 ssh 连接,端口默认为 22 即可,开启后,我们就可以 ssh 连接飞牛云 NAS 执行命令:
然后我们通过输入飞牛云 NAS 的 IP 地址 ssh 远程连接进去,因为 fnOS 是基于 Linux 内核开发的,所以我们可以按照 cpolar 的 Linux 安装方法进行安装:
连接后执行下面 cpolar Linux 安装命令:
sudo curl https://get.cpolar.sh | sh
再次输入飞牛云 nas 的密码确认后即可自动安装
安装完成后,执行下方命令查看 cpolar 服务状态:(如图所示即为正常启动)
sudo systemctl status cpolar
Cpolar 安装和成功启动服务后,在浏览器上输入飞牛云主机 IP 加 9200 端口即:【http://localhost:9200】访问 Cpolar 管理界面,使用官网注册的账号登录,登录后即可看到配置界面,接下来在 web 界面配置即可:
5.2 创建远程连接公网地址
登录 cpolar web UI 管理界面后,点击左侧仪表盘的隧道管理——创建隧道:
- 隧道名称:可自定义,本例使用了: fnos 注意不要与已有的隧道名称重复
- 协议:http
- 本地地址:11434
- 域名类型:随机域名
- 地区:选择 China Top
创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了两个公网地址,接下来你的好友在安装了 Page Assist 插件的 Chrome 浏览器的 ollama 设置中使用上面的任意一个公网地址替换刚才 IP 加端口号的地址,点击保存按钮后,就可以实现随时随地远程访问你在本地部署的 deepseek 大模型聊天了!
使用了 cpolar 的公网域名,无需自己购买云服务器,轻松搞定跨网络环境远程访问本地服务!
小结
为了方便演示,我们在上边的操作过程中使用 cpolar 生成的 HTTP 公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在 24 小时内会发生随机变化,更适合于临时使用。
如果有长期使用 Chrome 浏览器远程访问本地飞牛云 NAS 中部署的 DeepSeek 等大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。
6. 配置固定公网地址
接下来演示如何为 ollama 服务配置固定的 HTTP 公网地址,该地址不会变化,方便分享给别人长期访问你部署的大模型,而无需每天重复修改服务器地址。
配置固定 http 端口地址需要将 cpolar 升级到专业版套餐或以上。
登录 cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:
保留成功后复制保留成功的二级子域名的名称:fnollama,大家也可以设置自己喜欢的名称。
返回 Cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:fnos,点击右侧的编辑:
修改隧道信息,将保留成功的二级子域名配置到隧道中
- 域名类型:选择二级子域名
- Sub Domain:填写保留成功的二级子域名:
fnollama
点击更新
(注意,点击一次更新即可,不需要重复提交)
更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:
最后,我们在 Chrome 浏览器的 Page Assist 插件 ollama 设置界面中使用上面的任意一个固定的二级子域名公网地址替换刚才的随机公网地址,现在开始就不用每天都更换公网地址来远程访问本地部署的 deepseek 大模型了。
以上就是如何在 fnOS 飞牛云 NAS 中本地安装 Ollama 与 deepseek-r1 模型,并使用 Chrome 浏览器安装 Page Assist 插件快速搭建 web 页面,然后结合 cpolar 内网穿透工具配置固定不变的二级子域名公网地址,实现随时随地远程访问本地部署的 deepseek 大模型的全部流程,感谢您的观看,有任何问题欢迎留言交流。
觉得有用的话点个赞
👍🏻
呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍
🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙