【Deepseek】Linux 本地部署 Deepseek

前言

本文介绍在 Linux 系统上部署 Deepseek AI。本文教程是面向所有想体验 AI 玩家的一个简易教程,因此即使是小白也可以轻松完成体验,话不多说立马着手去干。

[注]:笔者使用的系统为 Ubuntu 24.10

1. 关于 ollama

Ollama 是一款开源应用,可让你在 WindowsMacOSLinux 上使用命令行界面在本地运行、创建和共享大型语言模型。Ollama 最初支持 Llama2,然后扩展了其模型库以包括 MistralPhi-2 等模型。Ollama 让您能够轻松开始在您自己的硬件上运行 LLM,专为简化大型语言模型(LLM)在本地机器上的部署和运行而设计。它通过将模型权重、配置和数据打包为 Modelfile,优化了 LLM 的设置和配置过程,使得非专业用户也能方便地管理和运行这些模型。Ollama 支持多种 LLM,并提供跨平台支持,用户可以通过简单的命令行操作或 API 来启动和运行模型。它在文本生成、翻译、问答系统和代码生成等多个应用场景中具有广泛的应用价值。

2. 下载并安装 ollama

ollama 官网链接:https://ollama.com/

进入官网映入眼帘的便是一个线条羊驼头像,正下方就是引人注目的 Download 按钮,直接点击进去。

在这里插入图片描述

这里直接点击复制官网提供的命令,粘贴到 Linux 的终端里执行。

在这里插入图片描述

如果正确安装完的日志信息将会是如下输出,由于笔者这台机器没有 GPU,因此这里会有个 WARNING,常规有 GPU 的机器则会输出 >>> NVIDIA GPU installed. 的字样。

安装完成,可以输入 ollama --version 来检验是否安装成功,如果正确安装则会输出所安装 ollama 的版本号。

在这里插入图片描述

到这里 Ollama 算是安装完成。

2.1. 安装报错的解决方法

如果在上述过程中没有报错则可以跳过此小节。若上述过程有报错的小伙伴可以尝试如下方法。

使用 curl 先下载 ollama 的安装脚本。

$ curl -fsSL https://ollama.com/install.sh -o ollama_install.sh

为下载下来的脚本文件添加可执行权限。

$ chmod +x ollama_install.sh

用如下命令,将 ollama 的默认下载地址指向 Github 下载。

$ sed -i 's|https://ollama.com/download/|https://github.com/ollama/ollama/releases/download/v0.5.11/|' ollama_install.sh

[注]:该版本是笔者安装时的最新版本,当按照该方法安装时建议查询当前最新版本号,安装最新版的 Ollama。

在这里插入图片描述

[注]:只需要看红线画出的命令,其它为笔者在粘贴的时候多复制了 $ 导致执行错误。

这时用该方法 Ollama 安装完成。

3. 配置模型存储位置

希望使用默认存储位置的小伙伴可以跳过此小节,直接看后面的下载模型。

LinuxOllama 默认的模型存储位置通常为 /usr/share/ollama/.ollama/models,当然也可以手动指定其路径。通过修改 OLLAMA_MODELS 环境变量完成。

首先关闭 ollama 服务。

sudo systemctl stop ollama

sudo systemctl disable ollama.service

[注]:若正在运行 ollama 则需要手动停止正在运行的程序 ctrl + c,对于首次安装的小伙伴则可以忽略这一点。

创建需要指定的目录,需要注意的是该目录的所属权必须全部是 root,且目录的权限为 775

例如笔者这里创建的目录为 /usr/local/ollama/models,为其设置权限。

sudo chown -R root:root /usr/local/ollama/models

sudo chmod -R 775 /usr/local/ollama/models

修改 service 文件。

sudo vim /etc/systemd/system/ollama.service

将其中的 UserGroup 修改为 root,同时在 [Service] 项中添加一行 Environment,用来指定模型存储路径。

Environment="OLLAMA_MODELS=*********"

[注]:**** 表示所要指定的具体完成路径。

在这里插入图片描述

重载配置并重启 ollama

sudo systemctl daemon-reload

sudo sudo systemctl start ollama.service

sudo sudo systemctl restart ollama.service

sudo sudo systemctl enable ollama.service

可以通过如下命令查看 ollama 服务是否正常工作。


sudo sudo systemctl status ollama.service

在这里插入图片描述

这时进入新指定的目录则会看到生成了 blobs 目录。
在这里插入图片描述

到此,模型的存储位置修改完成。

4. 下载 Deepseek 模型

Ollama 拉取和使用模型的操作跟 Docker 很像,所以如果有过使用容器的经验的话,用起来会非常顺手。首先我们访问以下 Ollama 官方的模型库中的DeepSeek-R1

在这里插入图片描述

在这里插入图片描述

这里笔者由于没有 GPU 同时也方便演示选择较小的 7b,点击右边的复制按钮,复制命令。

在这里插入图片描述

将上图中复制的命令中的 run 在终端中修改为 pull,由于 pull 是支持断点续传的,因此非常适合网络环境不稳定的小伙伴,当中断后仍然可以重新 pull 继续之前的下载。

$ ollama pull deepseek-r1:7b

[注]:这里耐心等待几分钟。

在这里插入图片描述

看到 success 字样也就说明模型下载完成了,执行如下命令可查看 ollama 目前所下载的模型列表。

$ ollama list

在这里插入图片描述

进入模型的存储路径同样也会看到下载好的模型。

在这里插入图片描述

5. 体验 Deepseek

运行如下命令进入命令行提问模式,这里的模型需要与下载的模型相同。

$ ollama run deepseek-r1:7b

我们来问个考验 AI 经典的问题吧。

在这里插入图片描述

6. 安装 Chatbox AI

https://www.chatboxai.app/zh

在这里插入图片描述
Linux 下载的文件名为 Chatbox-***.AppImage,事实上是一个可执行文件,这里需要给它修改为可执行的。
在这里插入图片描述

直接执行该文件,发现会报错,缺少一个库文件。

$ ./Chatbox-1.9.8-x86_64.AppImage 
dlopen(): error loading libfuse.so.2

AppImages require FUSE to run. 
You might still be able to extract the contents of this AppImage 
if you run it with the --appimage-extract option. 
See https://github.com/AppImage/AppImageKit/wiki/FUSE 
for more information

执行如下命令安装即可。

sudo apt install libfuse2

再次运行该程序,发现会报如下错误。

$ ./Chatbox-1.9.8-x86_64.AppImage 
[30328:0220/145555.961814:FATAL:setuid_sandbox_host.cc(157)] The SUID sandbox helper binary was found, but is not configured correctly. Rather than run without sandboxing I'm aborting now. You need to make sure that /tmp/.mount_ChatbopUEEU8/chrome-sandbox is owned by root and has mode 4755.
追踪或断点陷阱 (核心已转储)

这可能与笔者使用的系统版本有关 Ubuntu 24.10,在其它版本的 Linux 上不会报错,经过查找只能在其后添加 --no-sandbox 才可以正常启动。

$ ./Chatbox-1.9.8-x86_64.AppImage --no-sandbox

在这里插入图片描述

这里需要配置选择使用本地模型,点击保存。

在这里插入图片描述

现在就可以开始对话,这里还是用与上面同样的问题来提问。

在这里插入图片描述

它也可以解析一些静态网页,例如这里笔者将之前写的《【Deepseek】Windows本地部署Deepseek——小白版》 链接丢进去,该模型可以对该链接的内容简单解析。

在这里插入图片描述

7. 安装 AnythingLLM

官网 https://anythingllm.com/,Anythingllm 是功能强大的语言模型应用框架,它可支持很多本地部署大模型,并提供对用户友好的界面。这里作为与 ollama 搭配,作为本地知识库使用。

在这里插入图片描述

执行如下命令,下载 Linux 版本的 AnythingLLM

curl -fsSL https://cdn.anythingllm.com/latest/installer.sh | sh

下载好的文件会默认保存在 ~/AnythingLLMDesktop 目录下,进入该目录。

~$ cd AnythingLLMDesktop/

AnythingLLMDesktop$ ls
anythingllm-desktop  start

直接运行,start 脚本,这里可能是因为笔者所使用的系统版本原因,会报如下错误。

AnythingLLMDesktop$ ./start 
[57804:0220/154849.629752:FATAL:setuid_sandbox_host.cc(158)] The SUID sandbox helper binary was found, but is not configured correctly. Rather than run without sandboxing I'm aborting now. You need to make sure that /home/imaginemiracle/AnythingLLMDesktop/anythingllm-desktop/chrome-sandbox is owned by root and has mode 4755.
追踪或断点陷阱 (核心已转储)

解决方法如下,进入 ~/AnythingLLMDesktop/anythingllm-desktop/ 目录。

AnythingLLMDesktop$ cd anythingllm-desktop/

anythingllm-desktop$ ls
anythingllm-desktop          icudtl.dat              locales
anythingllm-desktop.desktop  libEGL.so               resources
anythingllm-desktop.png      libffmpeg.so            resources.pak
AppRun                       libGLESv2.so            snapshot_blob.bin
chrome_100_percent.pak       libvk_swiftshader.so    usr
chrome_200_percent.pak       libvulkan.so.1          v8_context_snapshot.bin
chrome_crashpad_handler      LICENSE.electron.txt    vk_swiftshader_icd.json
chrome-sandbox               LICENSES.chromium.html

修改 chrome-sandbox 文件权限,并退出该目录。

$ sudo chown root:root chrome-sandbox
$ sudo chmod 4755 chrome-sandbox
$ cd ~/AnythingLLMDesktop

再次执行 start 脚本。

$ ./start

成功启动 AnythingLLM

在这里插入图片描述

在这里插入图片描述

接下来在填写邮箱并选择相应选项进入使用,打开设置可以看到这里使用的是本地的模型。

在这里插入图片描述

可以在这里选择上传本地知识库,为模型添加知识库,不过在提问的时候可能需要添加一些提示,模型才会联系到本地的知识库文件。

在这里插入图片描述

#到此恭喜你已经完成了在 Linux 上本地部署 Deepseek。

#完

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/973431.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【python】网页批量转PDF

安装wkhtmltopdf 网站:wkhtmltopdf wkhtmltopdf http://www.baidu.com/ D:website1.pdf 安装pdfkit库 pip install pdfkit 批量转换代码 import os import pdfkit path_wkthmltopdf rE:\Program Files\wkhtmltopdf\bin\wkhtmltopdf.exe config pdfkit.configu…

JSON格式,C语言自己实现,以及直接调用库函数(一)

JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人阅读和编写,同时也易于机器解析和生成。以下为你提供不同场景下常见的 JSON 格式示例。 1. 简单对象 JSON 对象是由键值对组成,用花括号 {} 包裹&…

Web自动化之Selenium 超详细教程(python)

Selenium是一个开源的基于WebDriver实现的自动化测试工具。WebDriver提供了一套完整的API来控制浏览器,模拟用户的各种操作,如点击、输入文本、获取页面元素等。通过Selenium,我们可以编写自动化脚本,实现网页的自动化测试、数据采…

【Cadence射频仿真学习笔记】Pcell Designer设计电感学习笔记

Cadence的Pcell designer官方入门教程 一、下载Pcell Designer 首先,前往Cadence网站下载Pcell Designer软件 (具体安装过程就不记录了,大家自己去看视频吧) 二、创建新的P-cell 然后打开Virtuoso,点击Tools->…

体验用ai做了个python小游戏

体验用ai做了个python小游戏 写在前面使用的工具2.增加功能1.要求增加视频作为背景。2.我让增加了一个欢迎页面。3.我发现中文显示有问题。4.我提出了背景修改意见,欢迎页面和结束页面背景是视频,游戏页面背景是静态图片。5.提出增加更多游戏元素。 总结…

前端导出word文件,并包含导出Echarts图表等

基础导出模板 const html <html><head><style>body {font-family: Times New Roman;}h1 {text-align: center;}table {border-collapse: collapse;width: 100%;color: #1118FF;font-weight: 600;}th,td {border: 1px solid black;padding: 8px;text-align: …

易基因: ChIP-seq+DRIP-seq揭示AMPK通过调控H3K4me3沉积和R-loop形成以维持基因组稳定性和生殖细胞完整性|NAR

原文&#xff1a;ChIP-seqDRIP-seq揭示AMPK通过调控H3K4me3沉积和R-loop形成以维持基因组稳定性和生殖细胞完整性&#xff5c;NAR 大家好&#xff0c;这里是专注表观组学十余年&#xff0c;领跑多组学科研服务的易基因。 在饥饿等能量胁迫条件下&#xff0c;生物体会通过调整…

车载调频发射机-参观、考察、学习随车讲解的好助手-车载移动调频发射车队解说导览系统应用

车载调频发射机-参观、考察、学习随车讲解的好助手-车载移动调频发射车队解说导览系统应用 北京海特伟业科技有限公司任洪卓于2025年2月20日发布 在现代社会&#xff0c;政务接待、企业接待、外出考察和车队旅游等活动越来越频繁。无论是政府官员、企业高管&#xff0c;还是旅…

使用verilog 实现 cordic 算法 ----- 旋转模式

1-设计流程 ● 了解cordic 算法原理&#xff0c;公式&#xff0c;模式&#xff0c;伸缩因子&#xff0c;旋转方向等&#xff0c;推荐以下链接视频了解 cordic 算法。哔哩哔哩-cordic算法原理讲解 ● 用matlab 或者 c 实现一遍算法 ● 在FPGA中用 verilog 实现&#xff0c;注意…

ESP32 在IDF_V5.3.1版本下实现AP无线热点模式!(带WIFI事件处理)

一、什么是ESP32的AP无线热点模式&#xff1f; ESP32 的 AP&#xff08;Access Point&#xff09;模式 是指 ESP32 作为无线接入点运行&#xff0c;它自己创建一个 Wi-Fi 网络&#xff0c;允许其他设备&#xff08;如手机、电脑、平板等&#xff09;直接连接到它上面&#xff0…

Ubuntu 22.04 一键部署MinerU1.1.0

MinerU MinerU是一款将PDF转化为机器可读格式的工具&#xff08;如markdown、json&#xff09;&#xff0c;可以很方便地抽取为任意格式。 MinerU诞生于书生-浦语的预训练过程中&#xff0c;我们将会集中精力解决科技文献中的符号转化问题&#xff0c;希望在大模型时代为科技发…

AI工作流+专业知识库+系统API的全流程任务自动化

我有点悲观&#xff0c;甚至很沮丧&#xff0c;因为AI留给普通人的机会不多了&#xff0c;这既是人类之间权力的斗争&#xff0c;也是硅基生命和碳基生命的斗争。AI自动化是无法避免的趋势&#xff0c;如果人类不能平权&#xff0c;那就只能跪下接受审判。 通过整合AI工作流、专…

2026考研趋势深度解析:政策变化+高效工具指南

2026考研深度解析&#xff1a;趋势洞察高效工具指南&#xff0c;助你科学备战上岸 从政策变化到工具实战&#xff0c;这份千字攻略解决99%考生的核心焦虑 【热点引入&#xff1a;考研赛道进入“高难度模式”】 2025年全国硕士研究生报名人数突破520万&#xff0c;报录比预计扩…

javacv将mp4视频切分为m3u8视频并播放

学习链接 ffmpeg-demo 当前对应的 gitee代码 Spring boot视频播放(解决MP4大文件无法播放)&#xff0c;整合ffmpeg,用m3u8切片播放。 springboot 通过javaCV 实现mp4转m3u8 上传oss 如何保护会员或付费视频&#xff1f;优酷是怎么做的&#xff1f; - HLS 流媒体加密 ffmpe…

二叉树(数据结构)

二叉树 二叉树也是用过递归定义的结构 先序遍历又称前序遍历 ​​ ​​ 按照先序遍历的方法去手算处理这个二叉树 ​​ 先A B C 再 A B D E C&#xff08;也就是把B换成BDE再放进去&#xff09; 再 A B D E C F 看这个插入的方法要掌握像二叉树这样向一个…

如何利用国内镜像从huggingface上下载项目

1、利用镜像快速下载项目 在huggingface上下载模型时速度太慢&#xff0c;可以用下面的方法 pip install -U huggingface_hub pip install huggingface-cliexport HF_ENDPOINThttps://hf-mirror.comhuggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chine…

Http升级为Https - 开发/测试服环境

1.应用场景 主要用于开发/测试服环境将http升级为https, 防止前端web(浏览器)出现Mixed Content报错; 2.学习/操作 1.文档阅读 deepseek 问答; 2.整理输出 报错信息: Mixed Content: The page at <URL> was loaded over HTTPS, but requested an insecure XMLHttpRequ…

网页制作01-html,css,javascript初认识のhtml的基本标记

一、 Html简介 英文全称是 hyper text markup language,超文本标记语言,是全球广域网上描述网页内容和外观的标准. Html作为一款标记语言,本身不能显示在浏览器中.标记语言经过浏览器的解释和编译,才能正确地反映html标记语言的内容. 1.html 的基本标记 1&#xff09;头部标…

分布式 IO 模块:水力发电设备高效控制的关键

在能源领域不断追求高效与可持续发展的今天&#xff0c;水力发电作为一种清洁、可再生的能源形式&#xff0c;备受关注。而要实现水力发电设备的高效运行&#xff0c;精准的控制技术至关重要。分布式 IO 模块&#xff0c;正悄然成为水力发电设备高效控制的核心力量。 传统挑战 …

【前端框架】vue2和vue3的区别详细介绍

Vue 3 作为 Vue 2 的迭代版本&#xff0c;在性能、语法、架构设计等多个维度均有显著的变革与优化。以下详细剖析二者的区别&#xff1a; 响应式系统 Vue 2 实现原理&#xff1a;基于 Object.defineProperty() 方法实现响应式。当一个 Vue 实例创建时&#xff0c;Vue 会遍历…