1、背景:
2025年1月,DeepSeek 正式发布 DeepSeek-R1 推理大模型。DeepSeek-R1 因其成本价格低廉,性能卓越,在 AI 行业引起了广泛关注。DeepSeek 提供了多种使用方式,满足不同用户的需求和场景。本地部署在数据安全、性能、定制化、成本、离线可用性和技术自主性方面具有显著优势。
本文详细讲解 基于 Ollama+Docker+OpenWebUI 的本地windows部署流程
2、环境需求:
1.1 硬件需求:
DeepSeek R1 本地部署的硬件需求如下:
1.2 软件依赖:
DeepSeek R1 本地部署的软件依赖包括操作系统、容器化工具、编程语言、深度学习框架、数据库、消息队列、Web 服务器、GPU 加速工具、版本控制、包管理工具、监控与日志工具以及安全工具。
本教程采用 Windows server 2016 64位操作版本、Python 3.8 版本、PyTorch 1.7 版本。
3、Ollama 下载与安装:
1.1 Ollama 的下载:
Ollama 是一个开源的本地模型运行工具,可以方便地下载和运行各种开源模型,如 Llama、Qwen、DeepSeek 等。Ollama 提供高效、灵活的大模型部署和管理解决方案,可以简化模型的部署流程。支持macOS、Linux、Windows 操作系统。
ollama官网地址:https://ollama.com/
ollama下载地址:https://ollama.com/download本教程选择 Ollama Windows 版本下载。
1.2 Ollama 的安装:
下载完成后直接点击 OllamaSetup.exe 进行安装。
安装完成后,cmd 打开命令行窗口,输入 “ollama -v” 测试,显示 ollama 的版本为 “0.5.7”,表明安装成功。
1.3 Ollama 的运行:
Ollama 没有用户界面,在后台运行。
打开浏览器,输入 “http://localhost:11434/”,显示 “Ollama is running”。
4、deepseek-r1 模型安装:
1.1 Ollma 安装 deepseek-r1 模型:
点击进入 deepseek-r1 模型,可以选择不同版本的模型(1.5b/7b/14b/32b/70b/671b)。
deepseek-r1 提供多个版本,参数量越大,模型的性能越强大,但也需要更多的存储和计算资源。
- 1.5b 模型参数为15亿/1.1GB,
- 7b 模型参数约为 70亿/4.7GB,
- 14b 模型参数约为 140亿/9GB。
deepseek-r1 不同版本模型的执行命令不同:
1.5b 的命令为:
ollama run deepseek-r1:1.5b
7b 的命令为:
ollama run deepseek-r1:7b
14b 的命令为:
ollama run deepseek-r1:14b
本教程选择选择 7b 模型,在CMD命令行窗口运行安装命令 “ollama run deepseek-r1:7b”,程序会自动下载和安装运行。
安装完成后显示 “success”,表明安装成功。
注:默认地址是 “C:\Users%username%.ollama\models”。
如果要修改模型的保存地址,可以新建一个文件夹如 “C:\Model”,
然后在系统环境变量添加系统变量:
“变量名:OLLAMA_MODELS,变量值:C:\Model”。
1.2 使用 deepseek-r1 模型:
在命令行窗口运行命令 “ollama run deepseek-r1:7b”,就可以在提示行输入,与 deepseek-r1 进行聊天。
输入 “/?”,可以获得帮助。
注:通过本地命令行窗口可以使用 deepseek-r1,但这让人回到了 DOS 年代,交互体验很差。接下来我们按照 Docker 和 Open WebUI 用户界面,可以更便捷地使用 deepseek-r1。