前言:在人工智能技术飞速发展的今天,深度学习模型已成为推动各行各业智能化转型的核心驱动力。DeepSeek 作为一款领先的 AI 模型,凭借其高效的性能和灵活的部署方式,受到了广泛关注。无论是自然语言处理、图像识别,还是智能推荐系统,DeepSeek 都能提供强大的支持。本文将详细介绍 DeepSeek 的特点,并分享两种常见的部署方式:容器云部署和极速部署,帮助用户快速上手并高效利用这一先进技术。无论是技术开发者还是普通用户,都能通过这些方法快速上手并高效利用 DeepSeek 的强大能力。
目录
1.DeepSeek介绍
2.部署方式一:容器云部署DeepSeek
2.1 容器云配置
2.2 终端连接
2.3 模型配置
3.部署方式二:极速部署DeepSeek
1.DeepSeek介绍
DeepSeek 是由深度求索(DeepSeek)公司开发的一款高性能人工智能模型,专注于自然语言处理(NLP)、多模态任务以及通用人工智能(AGI)领域。作为一款领先的 AI 模型,DeepSeek 凭借其高效的性能、灵活的部署方式和广泛的应用场景,成为企业和开发者实现智能化转型的重要工具。
DeepSeek 的核心特点
-
高性能与高效能
DeepSeek 模型经过深度优化,能够在较低的计算资源下实现高效的推理和训练。无论是处理大规模数据集还是实时推理任务,DeepSeek 都能提供卓越的性能表现。
-
多模型支持
DeepSeek 提供了多种模型版本,以满足不同场景的需求。例如:
-
DeepSeek-R1:适用于轻量级任务,适合资源有限的环境。
-
DeepSeek-V3:支持更复杂的任务,具备更强的泛化能力。
-
DeepSeek-MultiModal:支持多模态任务,能够同时处理文本、图像和音频数据。
-
-
灵活部署
DeepSeek 支持多种部署方式,包括容器化部署、极速部署以及本地部署。用户可以根据自身需求选择最适合的方式,快速上手并高效利用模型。
-
开源生态与工具集成
DeepSeek 与 Ollama 等轻量级框架深度集成,方便开发者快速部署和扩展。同时,DeepSeek 还提供了丰富的 API 和开发工具,支持与其他系统的无缝对接。
-
广泛的应用场景
DeepSeek 适用于多种应用场景,包括但不限于:
-
自然语言处理:文本生成、情感分析、机器翻译、问答系统等。
-
多模态任务:图像描述生成、视频内容分析、跨模态检索等。
-
智能推荐:个性化推荐、广告投放优化等。
-
科研与教育:辅助科研数据分析、智能教学系统等。
-
DeepSeek 的技术优势
-
先进的模型架构
DeepSeek 基于 Transformer 架构,并结合了最新的深度学习技术,如自注意力机制、稀疏注意力机制等,使其在处理长文本和复杂任务时表现尤为出色。
-
高效的训练与推理
DeepSeek 采用了混合精度训练和分布式训练技术,大幅提升了训练效率。同时,模型经过量化优化,能够在推理阶段显著降低计算资源消耗。
-
多语言支持
DeepSeek 支持多种语言的处理,包括中文、英文、西班牙语、法语等,能够满足全球化业务的需求。
接下来介绍部署DeepSeek模型,介绍两种常见的部署方式:容器云部署和极速部署
2.部署方式一:容器云部署DeepSeek
2.1 容器云配置
首先登录蓝耘元生代智算云平台
https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e
选择容器云中的去新购
然后选择合适的GPU ,有RTX4090、RTX4090 6152、RTX3090、RTX3090E5、RTX3090E582、RTX3090C6514、RTX3080等多种类型GPU可供选择。以及多样的CPU及内存和硬盘等类型可选择。
挑选后,点击如下红框处
然后进行配置公共镜像
如下这里选择的是Miniconda框架-conda3-python版本3.12(ubuntu22.04)-cuda版本12.3
然后点击右下角确定,之后会自动跳转到容器实例页面并进行创建
可以看到刚刚选择的容器实例已运行
2.2 终端连接
接下来使用终端连接
需要下载两个软件:Xshell、Xftp(网上下载教程很多,自行下载)
如下为我使用的版本信息
安装完成以上两个软件后,打开Xshell软件,点击如下新建会话,或点击文件新建会话
进入如下界面
复制服务器的如下SSH登录指令,SSH和密码,后续会使用
例如我的SSH如下
ssh -p 43xxx root@qhdlink.lanyun.net
用户名为root
协议为SSH
主机为qhdlink.lanyun.net
端口号为43xxx
然后将SSH入刚刚在Xshell的新建会话,点击连接
选择为接受并保存,或一次性接受
然后输入用户名为root ,点击确定
然后粘贴刚刚复制的SSH登录指令的密码,点击确定
如下所示,成功连接上服务器(容器实例),我们会看到我们刚刚租用的实例的一些基本情况
2.3 模型配置
接下来在这个Xshell界面输入代码进行模型配置
首先进行安装Ollama,Ollama 是一个轻量级AI模型运行框架,支持多个开源模型,我们将用它来运行DeepSeek。
在终端中执行如下指令开启加速:
source /etc/network_turbo
执行如下命令来安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后启动 Ollama:
# 在后台运行
nohup ollama start >> ollama.log 2>&1 &
# 查看实时日志
tail -f ollama.log
接下来就可安装运行DeepSeek-R1了
ollama run deepseek-r1:1.5b
至此,我们已经成功在蓝耘容器平台上部署了一个DeepSeek-R1:1.5B模型了
耘元生代容器平台支持快速部署DeepSeek多款领先AI模型,只需通过修改Ollama指令即可完成其他DeepSeek模型部署,其余步骤不变。比如要运行一个DeepSeek-V3,执行如下命令即可:
ollama run deepseek-v3
注意:不用时,记得关机容器实例(按小时计费的,可节省成本)
3.部署方式二:极速部署DeepSeek
我们也可以直接从应用市场进行部署
点击蓝耘平台的应用市场,可以根据自己的使用场景灵活选择
点击部署即可选择GPU型号进行部署
自动跳转到如下工作空间后等待创建成功
然后点击快速应用即可
随后会跳转到Deepseek登录界面 ,此时需要电子邮箱和密码
我们返回应用市场,点击查看详情
复制粘贴默认账号密码即可
【默认账号:lanyunuser@lanyun.net 密码:lanyunuser】
点击登录 即可
登录成功如下界面
此外还支持多种DeepSeek模型的切换和微调