前言
DeepSeek
是一款开源的智能搜索引擎,能够通过深度学习技术提高搜索的智能化水平。如果你正在寻找一种方式来将DeepSeek部署在本地环境中,Ollama
是一个非常方便的工具,它允许你在本地快速部署并管理各种基于AI的模型。
在本篇博客中,我们将一步一步地指导你如何使用Ollama工具在本地环境中部署DeepSeek模型。
本地部署是指将AI模型部署在用户自己的本地设备上,直接处理数据和任务,无需依赖云端服务器。
这种方式可以确保数据隐私和安全,适合对数据敏感性要求高的场景。
一、Ollama
Ollama是一个支持在Windows
、Linux
和MacOS
上本地运行大语言模型的工具。它允许用户非常方便地运行和使用各种大语言模型,比如Qwen模型等。只需一行命令就可以启动模型。
1.1 下载Ollama
Ollama下载地址
选择对应操作系统进行下载.exe
文件,这里以Windows
为例:
1.2 安装Ollama
点击Install一键安装
安装完成后,查看Ollama版本,执行命令:ollama -v
或 ollama --version
查看下载的模型列表,执行命令:ollama list
1.3 常用命令
查看已部署的大模型:ollama list
查看正在运行中的大模型:ollama ps
部署或者运行一个大模型:ollama run <model_name>
停止在运行的大模型:ollama stop <model_name>
1.4 修改环境配置
模型存放地址默认在C:\Users\用户名\.ollama\models
,若下载模型过多,会导致C盘存储不够用,建议修改
新建环境变量,OLLAMA_MODELS
新建环境变量,OLLAMA_HOST
,默认端口为11434
端口,若有端口冲突,自行修改【可选】
新建环境变量,OLLAMA_ORIGINS
,【可选】
修改环境变量后,需要重启Ollama
找到Ollama
小羊驼图标,右键 Quit Ollama
搜索找到Ollama,以管理员身份运行
重启后,黑窗口执行ollama -v
检查一下是否启动成功
浏览器查看一下API服务:127.0.0.1:11434
若配置了OLLAMA_HOST
,可在黑窗口执行ipconfig
命令,查看本机IP,通过本机IP访问API服务
若连接不上,则自行检查环境变量,确保无误
二、下载DeepSeek R1模型
https://ollama.com/library/deepseek-r1
访问Ollama
官网,点击左上角的Models按钮
,找到DeepSeek R1
模型
在黑窗口运行,下载模型,需要耐心等待
三、下载可视化界面 - Open WebUI
3.1 下载Chrome浏览器的插件 Page Assist【推荐】
在Chrome浏览器,点击竖着的… >
扩展程序 >
访问 Chrome 浏览器应用商店 >
搜索
下载完成后,快捷键 Ctrl + Shift + L
即可打开可视化页面【前提:先启动Ollama服务】
点击设置修改语言
选择模型
即可进行对话
3.2 使用python安装
亲测有效:史上最简单open-webui安装方式!!! ,但有点卡顿
3.3 使用docker安装
该方法最为繁琐,不推荐,但UI要美观些
github源码地址:https://github.com/open-webui/open-webui
找到Installation with Default Configuration
如果 Ollama 在您的计算机上
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将OLLAMA_BASE_URL
更改为服务器的 URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.2.6:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这里我Ollama 位于其他服务器上,使用第二个命令
注意:访问不到,记得开放端口,参考Linux-开启端口
初次登录,注册一个账号,该账号默认为管理员
点击头像 >
设置 >
管理员设置
点击外部连接 >
设置Ollama API连接
选择一个模型,即可开始对话
总结
通过本地部署 DeepSeek R1
,我们可以将 AI 模型和搜索引擎直接运行在自己的设备上,从而有效保护数据隐私和安全。在部署过程中,Ollama
提供了简单易用的工具,支持快速下载和管理模型,极大地简化了本地部署的流程。然而,值得注意的是,这种方式需要一定的硬件支持,并且部署过程中可能会涉及到科学上网和配置相关问题。
尽管本地部署可能会比较繁琐,但它的优势在于:
数据安全
:通过本地环境运行 AI 模型,用户的数据不会暴露给云端服务,确保数据隐私。灵活控制
:用户可以自由管理模型、调整配置、优化性能。离线使用
:无需依赖外部服务,能够在没有网络的情况下使用模型。
对于需要高效且可定制的本地智能搜索引擎,DeepSeek R1
+ Ollama
+ Open-WebUI
无疑是一个值得尝试的解决方案。
博主也在摸索阶段,有问题及时欢迎讨论!