苹果笔记本本地部署deepseek主要用到Ollama与open-webui
1. 安装Ollama
“Ollama” 是一个轻量级的 AI 模型运行时环境(runtime),旨在简化在本地部署和使用大语言模型(LLM)的过程。它由 Vicarious 公司开发,支持多种 AI 模型(如 GPT-3、GPT-4 等),并允许用户通过简单的命令行或 API 接口与这些模型进行交互。
- 网页搜索Ollama点击进入
- 点击Download
- 选择MacOS,点击download for MacOS (使用科学上网下载更快)
- 下载的文件名为Ollama-darwin.zip,解压后得到一个羊驼图标的Ollama,正常安装(安装时选择move to Applications可以在启动台中找到), 安装完可以看到一个小羊驼图标。
2. 安装大模型
- 在刚才的Ollama界面左上角,选择模型,可以看到许多大模型,我选择的是deepseek-r1
- 选择参数版本,如果电脑配置一般可以选择1.5b,好的话可以选择32b或者更高都可以。
选择的参数版本越高运行的会更慢,但给出的答案相对好一些。我的电脑为M3 Max芯片,下载了一个7b和32b的,7b的速度很快,32b思考的速度要慢一些,并且使用32b时GPU是在全速运行的
- 以7b为例,点击右侧的复制按钮, 复制代码ollama run deepseek-r1
- 打开本地的命令行,用管理员权限进行下载,即sudo ollama run deepseek-r1,输入密码进行下载(下载速度稍慢)
- 下载完成就可以进行对话了,但这样很不方便,接下来我们可以安装open-webui建立像ChatGPT一样的对话框
3. 安装docker
- 网页搜索docker
- 根据电脑芯片选择下载版本,我选择的是Download for Mac - Apple Silicon
- 下载之后一键安装
4. 安装运行open-webui
- 进入Github官网,可以从刚刚Ollama左上角第二个选项Github进入(点击小黑猫进入首页),也可以直接搜索进入首页
- 搜索open-webui
- 点击进入
- 往下拉,找到How to Install后找到
If Ollama is on your computer, use this command:
-
点击复制代码,打开命令行,同样用管理员身份进行下载,即
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 等待下载完成
- 到电脑右上角找到小船图标,点击Goto the dashboard
- 此时就可以看到open-webui安装好了,点击Ports中的箭头就可以打卡对话界面
- 在右上角可以选择安装的大模型进行应用。
- open-webui示意图
- 点击左上角可切换大模型
5. 查看GPU使用进程
- 找到电脑自带的活动监视,器
- 找到左上角的窗口,点击GPU历史记录即可查看