DeepSeek开源周Day6:DeepSeek V3、R1 推理系统深度解析,技术突破与行业启示

DeepSeek 在开源周第六天再次发文,中文原文、官方号在知乎

  • DeepSeek - 知乎
  • DeepSeek-V3 / R1 推理系统概览 - 知乎
  • deepseek-ai/open-infra-index: Production-tested AI infrastructure tools for efficient AGI development and community-driven innovation

引言

2025年2月,深度求索(DeepSeek)发布了V3/R1推理系统,凭借545%的成本利润率(按行业标准折算为85%)和单节点8,575 tokens/s的吞吐量,刷新了大模型推理性能的认知。本文将深度解析其技术实现,并探讨对行业的影响。


一、核心技术突破

1.1 专家并行(Expert Parallelism, EP)革命

什么是专家并行?

在MoE(Mixture-of-Experts)模型中,每个输入仅激活部分专家(如DeepSeek V3每层激活8/256个专家)。EP技术通过将专家分布到多GPU,实现:

  • 吞吐量提升:单批次处理量扩大32-144倍
  • 内存优化:单卡仅需存储部分专家参数
  • 延迟降低:减少单卡计算负载
实现细节
阶段并行策略节点数单卡负载
预填充阶段EP32 + DP324节点9路由专家+1共享专家
解码阶段EP144 + DP14418节点2路由专家+1共享专家

关键技术价值:相比传统单卡推理,EP实现数量级成本下降,H800集群效率超越英伟达H200 1.5倍


1.2 通信-计算重叠优化

双批次流水线

将请求拆分为Micro-Batch,通过交替执行隐藏通信延迟:

预填充阶段:
[计算MB1] -> [通信MB1][计算MB2] -> [通信MB2]
解码阶段:
五级流水线:Attention拆分+多阶段重叠

预填充阶段通信重叠

性能收益
  • 通信延迟降低40%
  • GPU空闲时间减少至<5%

1.3 三级负载均衡体系

负载类型优化目标实现方法
预填充负载注意力计算均衡动态分配输入token数
解码负载KVCache内存均衡请求数平均分配
专家负载热点专家分散专家使用频率监控+动态迁移

技术亮点:通过实时监控实现<2%的负载偏差,避免木桶效应


二、系统架构全景

DeepSeek推理系统架构

核心组件:

  1. 路由层:智能请求分发
  2. 缓存系统:56.3%的磁盘KV缓存命中率
  3. 弹性调度:白天全节点推理,夜间部分节点转训练
  4. 精度控制:FP8通信 + BF16计算

三、性能数据解读

3.1 核心指标

指标数值行业对比
日均吞吐量776B tokens10倍于传统方案
单H800节点解码吞吐14.8k tokens/sH200的1.5倍
平均响应延迟45-50ms竞品平均120ms+
单位token成本$0.00002行业平均$0.0001

3.2 成本结构

pie title 日成本构成($87,072) "GPU租赁" : 72000 "机房运维" : 12000 "网络带宽" : 3072

3.3 动态扩缩容

  • 日间峰值:278节点
  • 夜间低谷:180节点
  • 智能预测:基于LSTM的负载预测模型

四、行业影响分析

4.1 技术启示

  1. MaaS规模效应:用户量达千万级时,边际成本骤降
  2. 超节点趋势:320卡紧耦合系统成为新标杆
  3. 精度创新:FP8+BF16混合精度实践

4.2 市场冲击

  • 价格战加速:行业成本认知从2/M
  • 硬件需求变化:NVLink带宽重要性凸显
  • 商业模式创新:免费服务引流+API变现的组合策略

4.3 未来挑战

  1. 万卡级EP系统的稳定性
  2. 多模态场景的扩展
  3. 动态稀疏性的极致优化

五、开源生态建设

DeepSeek同步开源五大核心模块:

  1. FlashMLA:高效注意力计算库
  2. DeepGEMM:矩阵运算优化
  3. DualPipe:双流水线调度器
  4. EPLB:专家负载均衡器
  5. profile-data:性能分析数据集
第 1 天 - FlashMLA

适用于 Hopper GPU 的高效 MLA 解码内核
针对可变长度序列进行了优化,在生产中经过实战测试

🔗 FlashMLA GitHub 存储库
✅ BF16 支持
✅ 分页 KV 缓存(块大小 64)
⚡ 性能:3000 GB/s 内存受限 |H800 上的 BF16 580 TFLOPS 计算绑定

第 2 天 - DeepEP

很高兴推出 DeepEP - 第一个用于 MoE 模型训练和推理的开源 EP 通信库。

🔗 DeepEP GitHub 存储库
✅ 高效和优化的 all-to-all 通信
✅ NVLink 和 RDMA 的节点内和节点间支持
✅ 用于训练和推理预填充的高吞吐量内核
✅ 用于推理解码的低延迟内核
✅ 原生 FP8 调度支持
✅ 灵活的 GPU 资源控制,用于计算通信重叠

第 3 天 - DeepGEMM

DeepGEMM 简介 - 一个 FP8 GEMM 库,支持密集 GEMM 和 MoE GEMM,为 V3/R1 训练和推理提供支持。

🔗 DeepGEMM GitHub 存储库
⚡ 在 Hopper GPU 上高达 1350+ FP8 TFLOPS
✅ 没有繁重的依赖,像教程一样干净
✅ 完全 Just-In-Time 编译
✅ ~300 行的核心逻辑 - 但在大多数矩阵大小中都优于专家调优的内核
✅ 支持密集布局和两种 MoE 布局

第 4 天 - 优化的并行策略

✅ DualPipe - 一种双向管道并行算法,用于 V3/R1 训练中的计算通信重叠。
🔗 GitHub 存储库

✅ EPLB - 适用于 V3/R1 的专家并行负载均衡器。
🔗 GitHub 存储库

📊 分析 V3/R1 中的计算通信重叠。
🔗 GitHub 存储库

第 5 天 - 3FS,所有 DeepSeek 数据访问的推进器

Fire-Flyer 文件系统 (3FS) - 一种并行文件系统,可利用现代 SSD 和 RDMA 网络的全部带宽。

⚡ 180 节点集群中的 6.6 TiB/s 聚合读取吞吐量
⚡ 在 25 节点集群中,GraySort 基准测试的吞吐量为 3.66 TiB/min
⚡ 每个客户端节点 40+ GiB/s 峰值吞吐量,用于 KVCache 查找
🧬 具有强一致性语义的分解架构
✅ 训练数据预处理,数据集加载,检查点保存/重新加载,嵌入向量搜索和KVCache查找以进行V3/R1中的推理

📥 3FS → GitHub - deepseek-ai/3FS: A high-performance distributed file system designed to address the challenges of AI training and inference workloads.
⛲ Smallpond - 3FS → https://github.com/deepseek-ai/smallpond 上的数据处理框架

第 6 天 - 还有一件事:DeepSeek-V3/R1 推理系统概述

通过以下方式优化吞吐量和延迟:
-🔧 跨节点 EP 支持的批量扩展
🔄 计算-通信重叠
⚖️ 负载均衡

V3/R1 在线服务生产数据:
⚡ 每个 H800 节点每秒 73.7k/14.8k 输入/输出令牌
🚀 成本利润率 545%


参考引用

  • DeepSeek-V3 / R1 推理系统概览 - 知乎
  • deepseek-ai/open-infra-index: Production-tested AI infrastructure tools for efficient AGI development and community-driven innovation

专业术语:

  • 成本利润率
    反映系统经济效益的指标,按行业标准折算后,DeepSeek的V3/R1推理系统达到85%,原数值为545% ,体现了该系统在成本控制与收益获取方面的出色表现。类似于做生意时,利润与成本的比例关系,比例越高说明盈利情况越好。
  • 吞吐量
    衡量系统数据处理能力的指标,如DeepSeek V3/R1推理系统单节点可达8,575 tokens/s,意味着该系统每秒能处理8,575个token的数据量。好比工厂每秒钟能生产的产品数量。
  • 专家并行(Expert Parallelism, EP)
    在MoE模型中,将专家分布到多个GPU的技术。通过这种方式,能提升吞吐量、优化内存使用并降低延迟,实现数量级成本下降。类似于把不同的专业工作分配给多个小组同时进行,提高整体工作效率。
  • 混合专家模型(Mixture-of-Experts, MoE)
    一种模型架构,每个输入仅激活部分专家,如DeepSeek V3每层激活8/256个专家。就像一个大型项目,不同部分由最合适的专业团队负责,而不是每个团队都处理所有任务。
  • Micro - Batch
    将请求拆分后的小批次数据单元,通过双批次流水线交替执行来隐藏通信延迟。类似于把一大份工作分成小份,轮流进行处理,提高效率。
  • 通信 - 计算重叠优化
    通过双批次流水线等方式,将通信延迟隐藏在计算过程中,降低通信延迟40%,减少GPU空闲时间至<5%。好比在做饭的同时准备餐具,充分利用时间。
  • 三级负载均衡体系
    包括预填充负载、解码负载和专家负载的均衡优化,通过动态分配输入token数、平均分配请求数、监控专家使用频率并动态迁移等方法,实现<2%的负载偏差,避免木桶效应。类似于合理分配工作任务给不同员工,让大家的工作量相对均衡,提高整体工作效率。
  • 路由层
    DeepSeek推理系统中负责智能请求分发的组件。好比一个快递分拣中心,将不同的请求准确地送到对应的处理单元。
  • 缓存系统
    用于存储数据的系统,DeepSeek推理系统的磁盘KV缓存命中率达56.3%,意味着有56.3%的请求可以直接从缓存中获取数据,提高了数据获取速度。类似于一个常用物品存放处,大部分时候能快速找到需要的东西。
  • 弹性调度
    根据不同时间段的需求,动态调整节点用途,如白天全节点推理,夜间部分节点转训练。就像一家工厂,白天全力生产产品,晚上部分设备用于设备维护或其他生产准备工作。
  • 精度控制
    采用FP8通信 + BF16计算的方式,在保证计算精度的同时,优化计算资源的使用。类似于根据不同需求选择不同精度的工具进行工作,既保证质量又提高效率。
  • 动态扩缩容
    根据系统负载动态调整所需节点数量,如DeepSeek V3/R1推理系统日间峰值278节点,夜间低谷180节点,并通过基于LSTM的负载预测模型进行智能预测。好比根据不同季节的客流量,调整商场的营业时间和工作人员数量。
  • MaaS(模型即服务,Model - as - a - Service)
    一种商业模式,当用户量达千万级时,边际成本骤降。类似于共享经济模式,使用的人越多,平均成本越低。
  • 超节点趋势
    指320卡紧耦合系统成为新标杆,体现了在大模型推理领域对硬件规模和耦合程度的新要求。好比建造大型建筑时,对建筑材料和结构紧密程度有了更高标准。
  • 动态稀疏性
    在模型计算过程中,动态调整计算资源分配,仅对重要数据进行计算,以优化计算效率。类似于在学习过程中,只重点学习最重要的知识点,提高学习效率。

DeepSeek V3/R1的突破不仅是技术胜利,更揭示了AI基础设施的演进方向:通过系统级创新将摩尔定律延伸至软件维度。随着EP技术的普及,大模型服务正在进入"水电化"的新纪元,而这场变革才刚刚开始。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/981450.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

springBoot集成emqx 实现mqtt消息的发送订阅

介绍 我们可以想象这么一个场景&#xff0c;我们java应用想要采集到电表a的每小时的用电信息&#xff0c;我们怎么拿到电表的数据&#xff1f;一般我们会想 直接 java 后台发送请求给电表&#xff0c;然后让电表返回数据就可以了&#xff0c;事实上&#xff0c;我们java应用发…

Docker安装milvus及其基本使用说明

简介 Milvus 是一款开源的高性能、高可用的向量数据库&#xff0c;专为大规模机器学习和深度学习应用设计&#xff0c;旨在高效管理和检索高维向量数据。随着AI技术的飞速发展&#xff0c;向量数据库在图像识别、语音识别、自然语言处理、推荐系统等领域扮演着越来越重要的角色…

ssm_mysql_小型企业人事管理系统

收藏关注不迷路&#xff01;&#xff01; &#x1f31f;文末获取源码数据库&#x1f31f; 感兴趣的可以先收藏起来&#xff0c;还有大家在毕设选题&#xff08;免费咨询指导选题&#xff09;&#xff0c;项目以及论文编写等相关问题都可以给我留言咨询&#xff0c;希望帮助更多…

25年第四本【认知觉醒】

《认知觉醒》&#xff1a;一场与大脑的深度谈判 在信息爆炸的焦虑时代&#xff0c;我们像被抛入湍流的溺水者&#xff0c;拼命抓取各种自我提升的浮木&#xff0c;却在知识的漩涡中越陷越深。这不是一本简单的成功学指南&#xff0c;而是一场关于人类认知系统的深度对话&#…

盘古信息携手艾罗能源启动IMS数字化智能制造工厂项目,共筑新能源行业数字化标杆

在政策扶持下成长的新能源行业&#xff0c;如今已逐步进入商业化阶段。相比传统制造行业&#xff0c;新能源行业离散度高、自动化程度高。 面对迅疾的市场变化&#xff0c;在大环境中一枝独秀的新能源行业&#xff0c;亟需突破传统架构的限制&#xff0c;通过构建智能化生产体…

32.C++二叉树进阶1(二叉搜索树)

⭐上篇文章&#xff1a;31.C多态4&#xff08;静态多态&#xff0c;动态多态&#xff0c;虚函数表的存储位置&#xff09;-CSDN博客 ⭐本篇代码&#xff1a;c学习/18.二叉树进阶-二叉搜索树 橘子真甜/c-learning-of-yzc - 码云 - 开源中国 (gitee.com) ⭐标⭐是比较重要的部分…

图论基础算法: 二分图的判定(C++)

二分图的基本概念 什么是二分图? 二分图(Bipartite Graph)是指一个图的顶点集可以被分割为两个互不相交的子集 U U U 和 V V V, 并且图中的每一条边都连接 U U U 中的一个顶点和 V V V 中的一个顶点. 换句话说, 二分图中的顶点可以被分成两组, 组内的顶点之间没有边相连…

pyside6学习专栏(九):在PySide6中使用PySide6.QtCharts绘制6种不同的图表的示例代码

PySide6的QtCharts类支持绘制各种型状的图表&#xff0c;如面积区域图、饼状图、折线图、直方图、线条曲线图、离散点图等&#xff0c;下面的代码是采用示例数据绘制这6种图表的示例代码,并可实现动画显示效果&#xff0c;实际使用时参照代码中示例数据的格式将实际数据替换即可…

爬虫逆向实战小记——解决webpack实记

注意&#xff01;&#xff01;&#xff01;&#xff01;某XX网站实例仅作为学习案例&#xff0c;禁止其他个人以及团体做谋利用途&#xff01;&#xff01;&#xff01; aHR0cHM6Ly9wbW9zLnhqLnNnY2MuY29tLmNuOjIwMDgwL3B4Zi1zZXR0bGVtZW50LW91dG5ldHB1Yi8jL3B4Zi1zZXR0bGVtZW5…

Hive-优化(语法优化篇)

列裁剪与分区裁剪 在生产环境中&#xff0c;会面临列很多或者数据量很大时&#xff0c;如果使用select * 或者不指定分区进行全列或者全表扫描时效率很低。Hive在读取数据时&#xff0c;可以只读取查询中所需要的列&#xff0c;忽视其他的列&#xff0c;这样做可以节省读取开销…

【三维生成】StarGen:基于视频扩散模型的可扩展的时空自回归场景生成

标题&#xff1a;《StarGen: A Spatiotemporal Autoregression Framework with Video Diffusion Model for Scalable and Controllable Scene Generation》 项目&#xff1a;https://zju3dv.github.io/StarGen 来源&#xff1a;商汤科技、浙大CAD、Tetras.AI 文章目录 摘要一、…

vue2(笔记)4.0vueRouter.声明式/编程式导航以及跳转传参.重定向

---vueRouter 五个步骤: 两个核心: {path:路径,component:组件} 二级路由: 1.在主页路由对象中,添加children配置项 2.准备路由出口 示例代码: {path: /,component: layout,redirect: home,children: [{path: /home,component: home},{path: /card,component: card}]}, 在l…

内网渗透信息收集linuxkali扫描ip段,收集脚本(web安全)

内网ip段扫描↓ 工具1↓ nmap -sn 192.168.128.0/24工具2↓ nbtscan 192.168.128.0/24 工具↓3 arp-scan -t 1000 192.168.128.0/24 cmd命令扫描↓ for /L %I in (1,1,255) Do ping -w 1 -n 1 192.168.128.%I | findstr "TTL" 这个命令在Windows命令提示符下使…

DeepSeek崛起:如何在云端快速部署你的专属AI助手

在2025年春节的科技盛宴上&#xff0c;DeepSeek因其在AI领域的卓越表现成为焦点&#xff0c;其开源的推理模型DeepSeek-R1擅长处理多种复杂任务&#xff0c;支持多语言处理&#xff0c;并通过搜索引擎获取实时信息。DeepSeek因其先进的自然语言处理技术、广泛的知识库和高性价比…

python-leetcode 48.二叉树的最近公共祖先

题目&#xff1a; 给定一个二叉树&#xff0c;找到该树中两个指定节点的最近公共祖先 百度百科中最近公共祖先的定义为&#xff1a;“对于有根树 T 的两个节点 p、q&#xff0c;最近公共祖先表示为一个节点 x&#xff0c;满足 x 是 p、q 的祖先且 x 的深度尽可能大&#xff0…

示例:在WPF中如何使用Segoe MDL2 Assets图标和使用该图标的好处

一、目的&#xff1a;分享在WPF中如何使用Segoe MDL2 Assets图标和使用该图标的好处 在WPF中使用Segoe MDL2 Assets字体&#xff0c;可以通过设置控件的FontFamily属性来实现。Segoe MDL2 Assets是一个包含许多图标的字体&#xff0c;通常用于Windows应用程序的图标显示。 二、…

QT——基于 QListWidget 和 QStackedWidget 的页面切换

Qt 练习题&#xff1a;基于 QListWidget 和 QStackedWidget 的页面切换 Qt 练习题&#xff1a;基于 QListWidget 和 QStackedWidget 的页面切换 题目描述&#xff1a; 请使用 Qt 设计一个窗口&#xff0c;其中包含一个 QListWidget 和一个 QStackedWidget。要求实现以下功能&a…

Docker概念与架构

文章目录 概念docker与虚拟机的差异docker的作用docker容器虚拟化 与 传统虚拟机比较 Docker 架构 概念 Docker 是一个开源的应用容器引擎。诞生于 2013 年初&#xff0c;基于 Go 语言实现。Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中&#xf…

linux server docker 拉取镜像速度太慢或者超时的问题处理记录

已经按网上的帖子将镜像地址改为国内的了,用docker info命令查看,如下图所示: 但是还存在下载镜像特别卡的问题,而不是直接报错了,如下图所示: 甚至已经连续下载一晚上了,还是卡在这里,不见任何下载进展。 我在window的docker中下载了对应的镜像,并用以下语句生成了…

四十二:VSCODE打开新文件覆盖上一个文件窗口问题

VSCODE打开新文件覆盖上一个文件窗口问题_vscode enablepreview-CSDN博客