【Ubuntu】本地部署Deep Seek(深度求索)大模型的保姆级教程 | 详细教程

杭州深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,DeepSeek是一家专注通用人工智能(AGI)中国科技公司,主攻大模型研发与应用,经营范围包括技术服务、技术开发、软件开发等。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费使用。支持联网搜索深度思考模式。

总结AI + 国产 + 免费 + 开源 + 强大

目录

1 环境要求

■ OS

2 安装Ollama

①安装

安装方式一

安装方式二

安装方式三

安装方式四

②验证

3 下载并部署DeepSeek模型

①启动Ollama

②下载模型

③访问

4 可视化

①下载

②添加执行权限

③运行

④设置

⑤交互



随着AI的飞速发展,本地部署大模型的需求也日益增加。DeepSeek大模型作为一款开源性能强大的大语言模型,提供了灵活的本地部署方案。Deep Seek大模型的本地部署不仅提升了数据安全隐私保护,还优化了性能降低了长期成本,并提供了更高的自主性和法规遵从性。对于寻求更高控制权、更低延迟和更安全数据处理的企业和组织来说,本地部署是一个极具吸引力的选择。然而,这也要求组织具备相应的IT基础设施和运维能力,以确保部署的顺利进行和后续的维护。

综上,本地部署具有以下的优点

 数据安全与隐私保护

 减少延迟和提高响应速度

 降低成本

 自主可控

 法规遵从

 高效利用资源

以下是详细的DeepSeek大模型本地部署的方法。

首先,需要说的是,小参数版本模型效果一般,如果真正落地部署应用的话,建议使用满血版本模型(671B版本)

接下来,开始动手部署吧。

1 环境要求

 OS

操作系统:Windows、macOS或Linux

2 安装Ollama

Ollama是一个开源的大型语言模型(LLM)推理服务器,为用户提供了灵活、安全和高性能的语言模型推理解决方案。

Ollama的主要特点是它能够运行多种类型的大型语言模型,包括但不限于Alpaca、Llama、Falcon、Mistral等,而无需将模型上传至服务器。这意味着用户可以直接在本地或私有云环境中运行这些模型避免了数据传输带来的延迟和隐私问题

①安装

安装方式一

访问官网Ollama,点击“Download”按钮。

全自动化脚本,要求网络状态良好。使用如下命令安装。

下载与安装

curl -fsSL https://ollama.com/install.sh | sh

安装方式二

分步安装,命令如下。

单独下载脚本

curl -fsSL https://ollama.com/install.sh > install.sh

添加执行权限

chmod +x install.sh

手动执行脚本

./install.sh

【报错】curl: (92) HTTP/2 stream 1 was not closed cleanly before end of the underlying stream                                            

【报错】curl: (35) OpenSSL SSL_connect: SSL_ERROR_SYSCALL in connection to github.com:443

上述报错的处理方法可参考:【Ubuntu】安装和使用Ollama的报错处理集合-CSDN博客

安装方式三

通过lscpu查看架构。选择对应的安装包。

下载

打开https://github.com/ollama/ollama/releases/,下载ollama-linux-amd64.tgz到本地。

解压

sudo tar -zxf ollama-linux-amd64.tgz -C /usr/local

解压成功后在/usr/local中打开bin和lib文件夹会出现ollama相关的文件

添加执行权限

sudo chmod +x /usr/local/bin/ollama 

安装方式四

安装ModelScope

pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

下载

modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux --revision v0.5.8

安装ollama

# 运行ollama安装脚本

cd ollama-linux

sudo chmod 777 ./ollama-modelscope-install.sh

./ollama-modelscope-install.sh

②验证

安装完成后,在终端输入以下命令,检查Ollama版本。

ollama --version

如果能够正确输出版本号,则说明安装成功。

综上,建议使用安装方法四进行安装。

3 下载并部署DeepSeek模型

Ollama支持多种DeepSeek模型的版本,用户可以根据硬件配置选择合适的模型。

 入门级:1.5B版本,适合进行初步测试。

 :7B或8B版本,适合大多数消费级GPU。

 高性能:14B、32B或70B版本,适合高端GPU。

注意:根据硬件配置选择合适的模型版本。较小的模型在标准硬件上表现良好,而较大的模型需要更强大的GPU支持;确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。

①启动Ollama

在终端输入以下命令启动Ollama服务。

ollama serve

# 或者

ollama start

②下载模型

Ollama官网搜索deepseek-r1,查看相关模型。

下载模型。

ollama pull deepseek-r1:1.5b

下载其他的模型。

ollama pull deepseek-r1:7b

ollama pull deepseek-r1:8b

ollama pull deepseek-r1:14b

ollama pull deepseek-r1:32b

ollama pull deepseek-r1:70b

ollama pull deepseek-r1:671b

另起一个窗口,在终端输入以下命令下载并运行DeepSeek模型。

ollama run deepseek-r1:1.5b

通过ollama list命令可查看已经部署的模型。

通过ollama rm deepseek-r1:1.5b命令可以删除指定的模型。

③访问

通过访问 http://localhost:11434 看到Ollama is running信息。

4 可视化

部署chatbox可以实现UI界面的本地大模型交互。

可视化工具Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

①下载

点击上图中的下载按钮,下载Chatbox-1.9.8-x86_64.AppImage到本地。

②添加执行权限

cd 到Chatbox-1.9.8-x86_64.AppImage所在路径。

chmod +x Chatbox-1.9.8-x86_64.AppImage

③运行

使用如下命令运行Chatbox。

./Chatbox-1.9.8-x86_64.AppImage

运行成功后,界面如下图。

④设置

点击保存即可。

⑤交互

设置完成后,就可以进行正常的交互了。

如果在部署过程中遇到问题,在评论区留言说明,可以一起解决哈。

如果部署成功了,欢迎留言支持哈。

至此,本文的内容就结束了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/966597.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Ollama + AnythingLLM + Deepseek r1 实现本地知识库

1、Ollama:‌是一个开源的大型语言模型 (LLM)服务工具,旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛‌。 2、AnythingLLM:是由Mintplex Labs Inc. 开发的一款全栈应用程序,旨在构建一个高效、可定制、…

网络安全治理架构图 网络安全管理架构

网站安全攻防战 XSS攻击 防御手段: - 消毒。 因为恶意脚本中有一些特殊字符,可以通过转义的方式来进行防范 - HttpOnly 对cookie添加httpOnly属性则脚本不能修改cookie。就能防止恶意脚本篡改cookie 注入攻击 SQL注入攻击需要攻击者对数据库结构有所…

如何利用maven更优雅的打包

最近在客户现场部署项目,有两套环境,无法连接互联网,两套环境之间也是完全隔离,于是问题就来了,每次都要远程到公司电脑改完代码,打包,通过网盘(如果没有会员,上传下载慢…

mysql 不是内部或外部命令,也不是可运行的程序或批处理文件

mysql 不是内部或外部命令,也不是可运行的程序或批处理文件 前言描述1、🌱环境变量配置(高级系统设置):2、🌱环境变量配置(系统属性):3、🌱环境变量配置&…

常用数据结构之String字符串

字符串 在Java编程语言中,字符可以使用基本数据类型char来保存,在 Java 中字符串属于对象,Java 提供了 String 类来创建和操作字符串。 操作字符串常用的有三种类:String、StringBuilder、StringBuffer 接下来看看这三类常见用…

RabbitMQ 消息顺序性保证

方式一:Consumer设置exclusive 注意条件 作用于basic.consume不支持quorum queue 当同时有A、B两个消费者调用basic.consume方法消费,并将exclusive设置为true时,第二个消费者会抛出异常: com.rabbitmq.client.AlreadyClosedEx…

使用LLaMA Factory踩坑记录

前置条件:电脑显卡RTX 4080 问题:LLaMA-Factory在运行的时候,弹出未检测到CUDA的报错信息 结论:出现了以上的报错,主要可以归结于以下两个方面: 1、没有安装GPU版本的pytorch,下载的是CPU版本…

大模型推理——MLA实现方案

1.整体流程 先上一张图来整体理解下MLA的计算过程 2.实现代码 import math import torch import torch.nn as nn# rms归一化 class RMSNorm(nn.Module):""""""def __init__(self, hidden_size, eps1e-6):super().__init__()self.weight nn.Pa…

Vue3+codemirror6实现公式(规则)编辑器

实现截图 实现/带实现功能 插入标签 插入公式 提示补全 公式验证 公式计算 需要的依赖 "codemirror/autocomplete": "^6.18.4","codemirror/lang-javascript": "^6.2.2","codemirror/state": "^6.5.2","cod…

MIT 6.5940(一)

记录了Lecture 1~8 Lecture 1 Introduction TinyML and Efficient Deep Learning Computing 摘要 AI systems need to continually adapt to new data collected locally 在设备学习:better privacy, lower cost, customization, life-long learningTraining is…

Linux TCP 编程详解与实例

一、引言 在网络编程的领域中,TCP(Transmission Control Protocol)协议因其可靠的数据传输特性而被广泛应用。在 Linux 环境下,使用 C 或 C 进行 TCP 编程可以实现各种强大的网络应用。本文将深入探讨 Linux TCP 编程的各个方面&…

一款由 .NET 官方团队开源的电子商务系统 - eShop

项目介绍 eShop是一款由.NET官方开源的,基于.NET Aspire构建的用于参考学习的服务架构电子商务系统,旨在展示如何利用.NET框架及其相关技术栈构建一个现代化的电子商务网站。该项目采用服务架构,将应用程序分解为多个独立的服务,…

crewai框架第三方API使用官方RAG工具(pdf,csv,json)

最近在研究调用官方的工具,但官方文档的说明是在是太少了,后来在一个视频里看到了如何配置,记录一下 以PDF RAG Search工具举例,官方文档对于自定义模型的说明如下: 默认情况下,该工具使用 OpenAI 进行嵌…

2011-2020年各省电话普及率数据

2011-2020年各省电话普及率数据 1、时间:2011-2020年 2、来源:国家统计局、统计年鉴 3、指标:行政区划代码、地区名称、年份、电话普及率(包括移动电话)(部/百人) 4、范围:31省 5、指标说明:电话普及率是衡量一个…

【自开发工具介绍】SQLSERVER的ImpDp和ExpDp工具演示05

SQLSERVER的ImpDp和ExpDp工具演示 1、表部分数据导出 (-query) ※「-query」和「-include_table」必须一起使用 「-query」后面字符串是sql文的where语句,但要注意要使用%,需要写%% 验证用:导出的表,导入到新的数据库 db的数…

ASP.NET Core 使用 WebClient 从 URL 下载

本文使用 ASP .NET Core 3.1,但它在.NET 5、 .NET 6和.NET 8上也同样适用。如果使用较旧的.NET Framework,请参阅本文,不过,变化不大。 如果想要从 URL 下载任何数据类型,请参阅本文:HttpClient 使用WebC…

快速上手Vim的使用

Vim Linux编辑器-vim使用命令行模式下所有选项都可以带数字底行模式可视块模式(ctrlV进入) Linux编辑器-vim使用 Vim有多种模式的编辑器。能帮助我们很快的进行代码的编辑,甚至完成很多其他事情。 默认情况下我们打开vim在命令模式下&#x…

nodejs - vue 视频切片上传,本地正常,线上环境导致磁盘爆满bug

nodejs 视频切片上传,本地正常,线上环境导致磁盘爆满bug 原因: 然后在每隔一分钟执行du -sh ls ,发现文件变得越来越大,即文件下的mp4文件越来越大 最后导致磁盘直接爆满 排查原因 1、尝试将m3u8文件夹下的所有视…

114,【6】攻防世界 web wzsc_文件上传

进入靶场 传个桌面有的 直接空白了 我们 访问一下上传的东西 /index 没显示用于解析的.htaccess和.user.ini 文件,还两个都不显示 .htaccess 和 .user.ini 文件分别用于 Apache 服务器和 PHP-FPM 环境的目录级配置 但上传的时候bp查看状态码是200,…

Open3d Qt的环境配置

Open3d Qt的环境配置 一、概述二、操作流程2.1 下载文件2.2 新建文件夹2.3 环境变量设置2.4 qt6 引用3、qt中调用4、资源下载一、概述 目前统一使用qt6配置,open3d中可视化功能目前使用vtk代替,语言为c++。 二、操作流程 2.1 下载文件 访问open3d github链接,进入releas…