论文精读 Co-DETR(Co-DINO、Co-Deformable-DETR)

DETRs with Collaborative Hybrid Assignments Training

基于协作混合分配训练的DETRs

论文链接:2211.12860.pdf (arxiv.org)

源码链接:https://github.com/Sense-X/Co-DETR

总结:

  1. Co-DETR基于DAB-DETR、Deformable-DETR和DINO网络进行了实验。
  2. Co-DETR发现DETR及其变体网络是一对一标签分配,指出了其中的问题,随之提出一对多标签分配监督多个并行辅助头的方法。
  3. 为了提高解码器中正样本(positive samples)的训练效率,Co-DETR从辅助头中提取正坐标(positive coordinates)来进行额外定制的正查询(positive queries)。
  4. 辅助头只在训练过程中使用,推断过程中被丢弃,只使用源网络进行推断。

总而言之,Co-DETR通过添加辅助头来提高网络的训练精度,仅仅是一种新型的训练方案,并未提出新的网络。但是,这种方案值得我们借鉴,提升精度不一定要更改网络结构,也可以换一种思路,比如这一篇商汤科技的论文——Co-DETR

目录

1. 摘要

2. 结论

3. 介绍

4. 相关工作

4.1 一对多标签分配

4.2 一对一匹配

5. 方法

5.1 概述

5.2 协作混合分配训练

5.3 自定义 Positive 查询生成

5.4 为什么Co-DETR有效

5.4.1 丰富编码器的监督

5.4.2 其中省略了调整大小的操作

5.4.3 通过降低匈牙利语匹配的稳定性来提高交叉注意力学习

5.5 与其他方法的比较

6 实验

6.1 设置

6.2 主要结果

6.3 与最先进技术的比较

6.4 消融实验


1. 摘要

在本文中,我们观察到,在具有一对一集匹配的DETR中,被分配为正样本的查询太少,导致对编码器输出的稀疏监督,这大大损害了编码器的判别特征学习,反之亦然。为了缓解这种情况,我们提出了一种新颖的协作混合分配训练方案,名为Co-DETR,以从通用的标签分配方式中学习更高效、更有效的基于DETR的检测器。这种新的训练方案可以通过训练由一对多标签分配(如ATSS和Faster RCNN)监督的多个并行辅助头,轻松增强编码器在端到端检测器中的学习能力。此外,我们通过从这些辅助头中提取正坐标来进行额外定制的正查询,以提高解码器中正样本的训练效率。在推断中,这些辅助头被丢弃因此我们的方法在不需要手工制作的非最大值抑制(NMS)的同时,没有给原始检测器引入额外的参数和计算成本。我们进行了广泛的实验来评估所提出的方法对DETR变体的有效性,包括DAB-DETR、Deformable-DETR和DINO-Deformable-DETR。最先进的带Swin-L的 DINO-Deformable-DETR 在 COCO val 上的AP可从58.5%提高到59.5%。令人惊讶的是,与ViT-L主干相结合,在 COCO test-dev 中实现了66.0%的AP,在LVIS val中实现了67.9%的AP,以更少的模型尺寸优于以前的方法。

图1.使用ResNet-50的模型在COCO val.Co-DETR上的性能大大优于其他模型。 

2. 结论

在本文中,我们提出了一种新的协作混合分配训练方案,即Co-DETR,以从通用的标签指派方式中学习更高效、更有效的基于DETR的检测器。这种新的训练方案可以通过训练由一对多标签分配监督的多个并行辅助头来容易地增强编码器在端到端检测器中的学习能力。此外,我们通过从这些辅助头中提取正坐标来进行额外定制的正查询,以提高解码器中正样本的训练效率。在COCO数据集上进行的大量实验证明了Co-DETR的效率和有效性。令人惊讶的是,与ViT-L主干相结合,我们在COCO测试开发中实现了66.0%的AP,在LVIS val中实现了67.9%的AP,建立了新的最先进的检测器,其型号尺寸要小得多。

3. 介绍

目标检测是计算机视觉中的一项基本任务,它要求我们对目标进行定位和分类。开创性的R-CNN家族[11,14,27]和一系列变体[31,37,44],如ATSS[41]、RetinaNet[21]、FCOS[32]和PAA[17],导致了物体检测任务的重大突破。一对多标签分配是它们的核心方案,其中每个 groundtruth box 被分配到检测器输出中的多个坐标,作为与提议[11,27]、锚[21]或窗口中心[32]合作的监督目标。尽管这些探测器的性能很有希望,但它们在很大程度上依赖于许多手工设计的组件,如非最大值抑制程序或锚生成[1]。为了提供更灵活的端到端检测器,DEtection TRansformer(DETR)[1]将对象检测视为集合预测问题,并引入了基于TRansformer编码器-解码器架构的一对一集合匹配方案。通过这种方式,每个基本事实框将只分配给一个特定的查询,并且不再需要对先验知识进行编码的多个手工设计的组件。这种方法引入了一个灵活的检测管道,并鼓励许多DETR变体进一步改进它。然而,普通的端到端对象检测器的性能仍然不如具有一对多标签分配的传统检测器。

图2.编码器中的特征可分辨性得分和解码器中的注意力可分辨性分数的IoF-IoB曲线。 

在本文中,我们试图使基于DETR的检测器优于传统检测器,同时保持其端到端的优点。为了应对这一挑战,我们重点关注一对一集合匹配的直观缺点,即它探索了不太积极的查询。这将导致严重的低效训练问题。我们从编码器产生的潜在表示和解码器中的注意力学习两个方面对此进行了详细的分析。我们首先比较了Deformable-DETR和一对多标签分配方法之间潜在特征的可分辨性得分,在该方法中,我们简单地用ATSS头代替解码器。利用每个空间坐标中的特征 L2 范数来表示可辨别性得分。给定编码器的输出F∈RC×H×W,我们可以得到判别性得分映射s∈R1×H×W。当对应区域中的分数较高时,可以更好地检测对象。如图2所示,我们通过对可分辨性得分应用不同的阈值来演示IoF-IoB曲线(IoF:前景上的交集,IoB:背景上的交集)。ATSS中的IoF-IoB曲线越高,表明更容易区分前景和背景。我们在图3 中进一步可视化了可辨别性得分图。很明显,在一对多标签分配方法中,一些显著区域的特征被完全激活,但在一对一集合匹配中较少被探索。为了探索解码器训练,我们还展示了基于Deformable-DETR和Group-DETR的解码器中交叉注意力得分的IoF-IoB曲线,该曲线将更多的正向查询引入到解码器中。图2 中的插图显示,过少的正向查询也会影响注意力学习,在解码器中增加更多的正向查询可以稍微缓解这种情况。

图3.编码器中可辨别性分数的可视化。 

这一重要观察结果促使我们提出一种简单但有效的方法,即协作混合分配训练方案(Co-DETR)。Co-DETR的关键见解是使用多功能的一对多标签分配来提高编码器和解码器的训练效率和有效性。更具体地说,我们将辅助头与Transformer编码器的输出集成在一起。这些头可以通过多功能的一对多标签分配进行监督,如ATSS[41]、FCOS[32]和FasterRCNN[27]。不同的标签分配丰富了对编码器输出的监督,这迫使它具有足够的鉴别力,以支持这些头部的训练收敛。为了进一步提高解码器的训练效率,我们精心编码了这些辅助头部中正样本的坐标,包括正锚和正建议。它们作为多组正查询发送到原始解码器,以预测预先分配的类别和边界框。每个辅助头部中的正坐标作为一个独立的组,与其他组隔离。通用的一对多标签分配可以引入大量的(positive query, ground-truth)对,以提高解码器的训练效率。注意,在推理过程中只使用原始解码器,因此所提出的训练方案只在训练过程中引入了额外的开销。

我们进行了大量的实验来评估所提出的方法的效率和有效性。如图3 所示,Co-DETR极大地缓解了编码器在一对一集合匹配中的特征学习不足。作为一种即插即用的方法,我们很容易将其与不同的DETR变体相结合,包括DAB-DETR、Deformable-DETR和DINO-Deformable-DETR。如图1所示,Co-DETR实现了更快的训练收敛,甚至更高的性能。具体来说,我们在12-epoch训练中将基本的Deformable-DETR提高了5.8%AP,在36-epoch的训练中提高了3.2%。使用Swin-L的最先进的DINO可变形DETR在COCO val上仍然可以从58.5%提高到59.5%的AP。令人惊讶的是,与ViT-L[8]主干相结合,我们在COCO test-dev上实现了66.0%的AP,在LVIS val上实现了67.9%的AP,建立了新的最先进、模型尺寸小得多的检测器。

4. 相关工作

4.1 一对多标签分配

对于对象检测中的一对多标签分配,可以在训练阶段将多个候选框分配给与正样本相同的基本事实框。在经典的基于锚的检测器中,如Faster RCNN[27]和RetinaNet[21],样本选择由预定义的IoU阈值以及锚和注释框之间的匹配IoU来指导。无锚FCOS[32]利用中心先验,并将每个边界框中心附近的空间位置分配为正值。此外,自适应机制被结合到一对多标签分配中,以克服固定标签分配的限制。ATSS[41]通过前k个最近锚的统计动态IoU值来执行自适应锚选择。PAA[17]以概率的方式自适应地将锚分为正样本和负样本。在本文中,我们提出了一种协作混合分配方案,通过具有一对多标签分配的辅助头来改进编码器表示。

4.2 一对一匹配

开创性的基于Transformer的检测器DETR[1]将一对一集合匹配方案结合到对象检测中,并执行完全端到端的对象检测。一对一集合匹配策略首先通过匈牙利匹配计算全局匹配成本,并为每个 groud truth 仅分配一个具有最小匹配成本的正样本。DN-DETR[18]证明了一对一集合匹配的不稳定性导致的缓慢收敛,因此引入了去噪训练来消除这一问题。DINO[39]在她的文章中采用了DAB-DETR[23]的高级查询公式,并结合了改进的对比去噪技术,以实现最先进的性能。Group DETR[5]构造逐组的一对多标签分配,以利用多个正对象查询,这类似于H-DETR[16]中的混合匹配方案。与上述后续工作相比,我们提出了一对一集合匹配协同优化的新视角。

5. 方法

5.1 概述

根据标准DETR协议,输入图像被馈送到主干和编码器中,以生成潜在特征。多个预定义的对象查询随后通过交叉关注在解码器中与它们交互。我们引入了Co-DETR,通过协作混合分配训练方案和定制的正向查询生成来改进编码器中的特征学习和解码器中的注意力学习。我们将详细描述这些模块,并深入了解它们为什么能很好地工作。

5.2 协作混合分配训练

表1.辅助头的详细信息。辅助头包括Faster RCNN[27]、ATSS[41]、RetinaNet[21]和FCOS[32]。如果没有另外指定,我们将遵循原始实现,例如,锚点生成。

为了缓解解码器中较少的正向查询对编码器输出的稀疏监督,我们引入了具有不同一对多标签分配范式的通用辅助头,例如ATSS和Faster R-CNN。不同的标签分配丰富了对编码器输出的监督,这迫使它具有足够的鉴别力,以支持这些头部的训练收敛。具体来说,给定编码器的潜在特征F,我们首先通过多尺度适配器将其转换为特征金字塔{F1,··,FJ},其中J表示具有 2^{2+J} 下采样步长的特征图。与ViT Det[20]类似,特征金字塔是由单尺度编码器中的单个特征映射构建的,而我们使用双线性插值和3×3卷积进行上采样。例如,对于来自编码器的单尺度特征,我们成功地应用下采样(3×3与步长2的卷积)或上采样操作来产生特征金字塔。对于多尺度编码器,我们只对多尺度编码器特征 F 中最粗糙的特征进行下采样,以构建特征金字塔。定义了具有相应标签分配方式的K个协作头 A_{k},对于第 i 个协作头,将{F1,··,FJ}发送给它,以获得预测。在第 i 个头处,A_{i} 用于计算 P_{i} 中正样本和负样本的监督目标。将 G 表示为基本真值集,该过程可以公式化为:

其中{pos}和{neg}表示由 A_{i} 确定的(j,Fj中的正坐标或负坐标)的对集。j 表示{F1,··,Fj}中的特征索引。B_{i}^{pos} 是一组空间正坐标。B_{i}^{pos} 和 B_{i}^{neg} 是相应坐标中的监督目标,包括类别和回归偏移。具体来说,我们在表1中描述了每个变量的详细信息。损失函数可以定义为:

请注意,对于负样本,将丢弃回归损失。K 个辅助头优化的训练目标如下:

5.3 自定义 Positive 查询生成

在一对一集合匹配范式中,每个 ground-truth box 将只分配给一个特定的查询作为监督目标。如图2所示,积极查询过少会导致转换器解码器中的交叉注意力学习效率低下。为了缓解这种情况,我们根据每个辅助头中的标签分配 A_{i} 精心生成了足够的定制肯定查询。具体而言,给定正坐标集B_{i}^{pos}\epsilon \mathbb{R}^{M_{i}\times 4} 在第 i 个辅助头中,其中Mi是正样本的数量,额外定制的正查询 Q_{i}\epsilon \mathbb{R}^{M_{i}\times C} 可以由下式生成:

其中 PE(·) 代表位置编码,我们根据索引对(j,Fj中的正坐标或负坐标)从 E(·) 中选择相应的特征。

因此,在训练期间,有K1组查询属于单个一对一集匹配分支,并且有K个分支具有一对多标签分配。辅助的一对多标签分配分支与原始主分支中的L个解码器层共享相同的参数。辅助分支中的所有查询都被视为正查询,因此丢弃了匹配过程。

Pi,l 是指第 i 个辅助分支中的第 l 个解码器层的输出预测。最后,Co-DETR的训练目标是:

其中,代表原始一对一集合匹配分支[1]中的损耗,λ1 和 λ2 是平衡损耗的系数

5.4 为什么Co-DETR有效

Co-DETR导致了对基于DETR的检测器的明显改进。在下文中,我们试图从定性和定量两个方面研究其有效性。我们使用36-epoch设置,基于ResNet-50主干的Deformable-DETR进行详细分析。

5.4.1 丰富编码器的监督

直观地说,太少的正向查询会导致稀疏的监督,因为对于每个基本事实,只有一个查询受到回归损失的监督。以一对多标签分配方式的正样本接受更多的定位监督,以帮助增强潜在特征学习。为了进一步探索稀疏监督如何阻碍模型训练,我们详细研究了编码器产生的潜在特征。我们引入IoF-IoB曲线来量化编码器输出的可分辨性得分。具体来说,给定编码器的潜在特征F,受图3中特征可视化的启发,我们计算 IoF(前景上的交叉点)和 IoB(背景上的交叉口)。给定编码器在j级的特征 F_{j}\epsilon \mathbb{R}^{C\times H_{j}\times W_{j}},我们首先计算 L_{2} 范数 F_{j}\hat{}\epsilon \mathbb{R}^{1\times H_{j}\times W_{j}},并将其调整为图像大小 H×W。可辨别性得分 D(F) 是通过对所有级别的得分进行平均来计算的:

图5.COCO数据集上Deformable-DETR和Co-Deformable-DETR的不稳定性(IS)[18]。这些探测器使用ResNet-50主干进行了12-epoch的训练。

[18] Feng Li,Hao Zhang,Shilong Liu,Jian Guo,Lionel M Ni,and Lei Zhang.Dn-detr:Accelerate detr training by intro-ducing query denoising.In Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition,pages 13619–13627,2022.3,5,7

5.4.2 其中省略了调整大小的操作

我们在图3中可视化了ATSS、Deformable-DETR和Co-Deformable-DETR的可分辨性得分。与Deformable-DETR相比,ATSS和Co-Deformable-DETR都具有更强的区分关键对象区域的能力,而Deformable-DETR几乎受到背景的干扰。因此,

  • 我们将前景和背景的指示符分别定义为
  • S 是预定义的得分阈值,如果 x 为真,则  为 1,否则为 0。
  • 对于前景 M^{fg}\epsilon \mathbb{R}^{H\times W} 的掩码,如果点(h,w)在前景内部,则元素 M_{h,w}^{fg} 为1,否则为0。
  • 前景上的相交面积可以计算为:

具体来说,我们以类似的方式计算后台区域的交叉面积(IoB),并在图2中通过改变S绘制曲线IoF和IoB。显然,在相同的IoB值下,ATSS和可变形DETR获得的IoF值高于Deformable-DETR和Group-DETR,这表明编码器表示从一对多标签分配中受益。

5.4.3 通过降低匈牙利语匹配的稳定性来提高交叉注意力学习

匈牙利匹配是一对一集合匹配的核心方案。交叉注意是帮助正向查询编码丰富对象信息的重要操作。要做到这一点,需要充分的训练。我们观察到,匈牙利匹配引入了不可控的不稳定性,因为在训练过程中,ground truth 被分配给同一图像中的特定肯定查询。在 DN-DETR 之后,我们在图5 中对不稳定性进行了比较,我们发现我们的方法有助于更稳定的匹配过程。此外,为了量化交叉注意力的优化程度,我们还计算了注意力得分的IoF-IoB曲线。与特征可分辨性得分计算类似,我们为注意力得分设置不同的阈值,以获得多个IoF-IoB对。Deformable-DETR、Group-DETR和Co-Deformable-DETR之间的比较如图2 所示。我们发现,具有更积极查询的DETR的IoF-IoB曲线通常高于Deformable-DETR,这与我们的动机一致。

5.5 与其他方法的比较

我们的方法与其他计数器部分之间的差异。Group-DETR、H-DETR和SQR[2]通过与重复组和重复地面实况框进行一对一匹配来执行一对多分配。Co-DETR显式地为每个 ground truth 指定多个空间坐标作为正值。因此,这些密集的监督信号被直接应用于潜在特征图,以使其更具鉴别性。相比之下,组DETR、H-DETR和SQR缺乏这种机制。尽管在这些对应中引入了更多的正向查询,但匈牙利匹配实现的一对多分配仍然存在一对一匹配的不稳定性问题。我们的方法得益于现成的一对多赋值的稳定性,并继承了它们在正查询和基本事实框之间的特定匹配方式。分组DETR和H-DETR未能揭示一对一匹配与传统的一对多分配之间的互补性。据我们所知,我们是第一个用传统的一对多分配和一对一匹配对探测器进行定量和定性分析的人。这有助于我们更好地理解它们的差异和互补性,这样我们就可以通过利用现成的一对多作业设计来自然地提高DETR的学习能力,而不需要额外的专业一对多设计经验。

解码器中没有引入否定查询。重复的对象查询不可避免地会给解码器带来大量的负面查询,并显著增加GPU内存。然而,我们的方法只处理解码器中的正坐标,因此消耗较少的内存,如表7所示。

6 实验

6.1 设置

数据集和评估指标:我们的实验是在MS COCO 2017数据集[22]和LVISv1.0数据集[12]上进行的。COCO数据集由115K张用于训练的标记图像和5K张用于验证的图像组成。我们默认在val子集上报告检测结果。还报告了我们在测试dev上评估的最大模型(20K图像)的结果。LVIS v1.0是一个大型长尾数据集,有1203个类别用于大型词汇实例分割。为了验证Co-DETR的可扩展性,我们将其进一步应用于大规模对象检测基准,即Objects365[30]。Objects365数据集中有1.7M个标记图像用于训练,80K个图像用于验证。所有结果都遵循标准平均平均精度(AP),在不同物体尺度下,IoU阈值范围为0.5至0.95。

实验细节:我们将我们的Co-DETR纳入当前类似DETR的管道中,并保持训练设置与基线一致。对于K=2,我们采用ATSS和Faster RCNN作为辅助头,对于K=1,我们只保留ATSS。关于我们的辅助头的更多详细信息,请参阅补充材料。我们选择可学习对象查询的数量为300,并将{λ1,λ2}默认设置为{1.0, 2.0}。对于Co-DINO-Deformable-DETR++,我们使用复制粘贴的大规模抖动[10]。

6.2 主要结果

在本节中,我们在表2和表3中实证分析了Co-DETR对不同DETR变体的有效性和泛化能力。所有结果都是使用mmdetection重新生成的[4]。我们首先将协作混合任务训练应用于具有C5特征的单尺度DETR。令人惊讶的是,在长训练计划的基础上,条件性DETR和DAB-DETR都获得了2.4%和2.3%的AP增益。对于具有多尺度特征的Deformable-DETR,检测性能从37.1%显著提高到42.9%。当训练时间增加到36-epoch时,总体上仍有改善(3.2%)。此外,我们在[16]之后对改进的可变形DETR(表示为可变形DETER)进行了实验,其中观察到2.4%的AP增益。采用我们的方法配备的最先进的DINO可变形DETR可实现51.2%的AP,比竞争基线高1.8%的AP。

我们基于两条最先进的基线,进一步将骨干容量从ResNet-50扩展到Swin-L[25]。如表3所示,Co-DETR实现了56.9%的AP,并以很大的幅度(1.7%的AP)超过了可变形DETR基线。具有Swin-L的DINO可变形DETR的性能仍然可以从58.5%提高到59.5%的AP。

6.3 与最先进技术的比较

我们将K=2的方法应用于可变形DETR和DINO。此外,我们的Co-DINO可变形DETR采用了质量聚焦损耗[19]和NMS。我们在表4中报告了COCO值的比较。与其他竞争对手相比,我们的方法收敛得更快。例如,当仅使用具有ResNet-50骨干的12-epoch时,Co-DINO可变形DETR容易地实现52.1%的AP。我们的Swin-L方法在1×调度器上可以获得58.9%的AP,甚至在3×调度器上超过了其他最先进的框架。(SOTA)更重要的是,我们的最佳模型Co-DINO-Deformable-DETR++在36-epoch训练下,使用ResNet-50实现了54.8%的AP,使用Swin-L实现了60.7%的AP,以明显的优势超过了具有相同主干的所有现有检测器。

为了进一步探索我们方法的可扩展性,我们将主干容量扩展到3.04亿个参数。该大规模骨干ViT-L[7]使用自监督学习方法(EVA-02[8])进行预训练。我们首先在Objects365上用ViT-L预训练26个时期的Co-DINO可变形DETR,然后在COCO数据集上微调12个时期。在微调阶段,输入分辨率在480×2400和1536×2400之间随机选择。详细设置可在补充材料中获得。我们的结果是通过增加测试时间来评估的。表5展示了对COCO测试开发基准的最先进的比较。Co-DETR的模型大小(304M个参数)要少得多,在COCO测试开发中创下了66.0%AP的新纪录,比之前的最佳模型InternImage-G[34]高出0.5%AP。

我们还展示了Co-DETR在长尾LVIS检测数据集上的最佳结果。特别是,我们使用与COCO上的模型相同的Co-DINO-Deformable-DETR,但选择FedLoss[42]作为分类损失,以弥补数据分布不平衡的影响。在这里,我们只应用边界框监督并重新报告对象检测结果。比较结果见表6。在LVIS val和minival上,与Swin-L的Co-DETR产生56.9%和62.3%的AP,分别超过了与MAE预训练[13]ViT-H和GLIPv2[40]的ViT-Det 3.5%和2.5%的AP。我们在该数据集上进一步微调了Objects365预训练的Co-Det。在不增加详细的测试时间的情况下,我们的方法在LVIS val和minival上分别获得了67.9%和71.9%的最佳检测性能。与增加了测试时间的30亿参数InternImage-G相比,我们在LVIS值和最小值上分别获得了4.7%和6.1%的AP增益,同时将模型大小减小到1/10。

6.4 消融实验

除非另有说明,所有消融实验均在具有ResNet-50骨干网络的Deformable-DETR上进行。默认情况下,我们将辅助头的数量K选择为1,并将总批量设置为32。在补充材料中可以找到更多的消融和分析。辅助封头的选择标准。我们进一步研究了表7和表8中选择辅助磁头的标准。表8中的结果表明,任何具有一对多标签分配的辅助磁头都能持续提高基线,ATSS实现最佳性能。我们发现,当选择小于3的K时,精度随着K的增加而继续增加。It is worth noting that,当K=6时,性能会下降,我们推测辅助磁头之间的严重冲突会导致这种情况。如果辅助磁头的特征学习不一致,则随着K变大,持续改进将被破坏。接下来,我们还分析了补充材料中多个头的优化一致性。在保险方面,我们可以选择任何一个磁头作为辅助磁头,我们认为ATSS和Faster RCNN是在K≤2时实现最佳性能的常用方法。我们不使用太多不同的头,例如,6个不同的头以避免优化冲突。

冲突分析。当相同的空间坐标被分配给不同的前景框或在不同的辅助头中被视为背景时,冲突就会出现,并且可能混淆检测器的训练。我们首先将头Hi和头Hj之间的距离以及Hi的平均距离定义为:

其中,KL、D、I、C是指KL散度、数据集、输入图像和类激活图(CAM)[29]。如图6所示,我们计算了K>1时辅助磁头之间的平均距离,以及K=1时DETR磁头和单个辅助磁头之间距离。我们发现,当K=1时,距离度量对每个辅助头来说都是不重要的,这一观察结果与我们在表8中的结果一致:当K=1时,DETR头可以与任何头协同改进。当K增加到2时,距离指标略有增加,我们的方法实现了最佳性能,如表7所示。当K从3增加到6时,距离激增,这表明这些辅助磁头之间的严重优化冲突导致性能下降。然而,6ATSS的基线达到了49.5%的AP,并且可以通过用6个不同的头代替ATSS而降低到48.9%的AP。因此,我们推测过多不同的辅助人头,例如超过3个不同的头,会加剧冲突。总之,优化冲突受各种辅助头的数量以及这些头之间的关系的影响。

图6.当K从1到6变化时的距离。 

添加的头应该不同吗?使用两个ATSS头部(49.2%的AP)进行协作训练仍然改进了使用一个ATSS头(48.7%的AP)的模型,因为在我们的分析中,ATSS是对DETR头部的补充。此外,引入一种多样且互补的辅助头,而不是与原始磁头相同的头,例如更快的RCNN,可以带来更好的增益(49.5%AP)。请注意,这与上述结论并不矛盾;相反,我们可以在几个不同的头(K≤2)下获得最佳性能,因为冲突是微不足道的,但当使用许多不同的头时(K>3),我们会面临严重的冲突。

每个组件的效果。我们进行了组件消融,以彻底分析表9中每个组件的影响。由于密集的空间监督使编码器功能更具鉴别力,因此合并辅助头可获得显著的增益。 或者,引入定制的肯定查询也对最终结果有显著贡献,同时提高了一对一集合匹配的训练效率。这两种技术都可以加速收敛并提高性能。总之,我们观察到整体改进源于编码器更具鉴别性的特征和解码器更有效的注意力学习。

与较长的训练计划相比。如表10所示,我们发现随着性能饱和,Deformable-DETR无法从更长的训练中受益。相反,Co-DETR大大加速了收敛,同时提高了峰值性能。

辅助分支的性能。令人惊讶的是,在表11中,我们观察到Co-DETR也为辅助头带来了一致的增益。这意味着我们的训练范式有助于更具鉴别性的编码器表示,这提高了解码器和辅助头的性能。

原始肯定查询和自定义肯定查询的分布差异。我们在图7a中可视化了原始肯定查询和自定义肯定查询的位置。每个图像只显示一个对象(绿色框)。解码器中匈牙利匹配指定的肯定查询用红色标记。我们分别用蓝色和橙色标记从Faster RCNN和ATSS中提取的阳性查询。这些定制的查询分布在实例的中心区域周围,并为检测器提供足够的监督信号。

分布差异会导致不稳定吗?我们在图7b 中计算了原始查询和定制查询之间的平均距离。原始否定查询和自定义肯定查询之间的平均距离显著大于原始肯定查询和自定义否定查询之间的距离。由于原始查询和自定义查询之间的分布差距很小,因此在训练过程中不会遇到稳定性问题。

>>>> 如有疑问,欢迎品论区一起探讨。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/209507.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

ElasticSearch知识体系详解

1.介绍 ElasticSearch是基于Lucene的开源搜索及分析引擎,使用Java语言开发的搜索引擎库类,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。 它可以被下面这样准确的形容: 一个分布式的实时文档存储&#xf…

fastmock如何判断头信息headers中的属性值

fastmock可以快速提供后端接口的ajax服务。 那么,如何判断头信息headers中的属性值呢? 可以通过function中的参数_req可以获得headers中的属性值,比如 User-Agent,由于User-Agent属性带有特殊符号,因此使用[]方式而不…

什么是CDN?CDN的网络监控是在怎么样的?怎么用?

随着互联网的飞速发展,网站已经成为我们日常生活和工作中的重要组成部分。为了确保网站的稳定性和安全性,CDN(内容分发网络)和网站监控功能成为了不可或缺的技术手段。在这篇文章中,我们将深入了解CDN的重要性和如何通…

【开源】基于JAVA的厦门旅游电子商务预订系统

项目编号: S 030 ,文末获取源码。 \color{red}{项目编号:S030,文末获取源码。} 项目编号:S030,文末获取源码。 目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块2.1 景点类型模块2.2 景点档案模块2.3 酒…

Kafka中的auto-offset-reset配置

Kafka这个服务在启动时会依赖于Zookeeper,Kafka相关的部分数据也会存储在Zookeeper中。如果kafka或者Zookeeper中存在脏数据的话(即错误数据),这个时候虽然生产者可以正常生产消息,但是消费者会出现无法正常消费消息的…

linux上编写进度条

目录 一、预备的两个小知识1、缓冲区2、回车与换行 二、倒计时程序三、编写入门的进度条四、编写一个正式的五、模拟实现和下载速度相关的进度条 一、预备的两个小知识 1、缓冲区 首先认识一下缓冲区:先写一个.c文件如下: 我们执行一下这个程序时&…

抖音短视频账号矩阵系统开发新规则

一、抖音官方平台开发新规: 1.代发布管理应用api接口无法在做新的应用申请 仅针对企事业单位开放,目前要想开发新的抖音矩阵系统,就需要在原有的技术算法上进行新一步的调整。 能力介绍 网站应用开发者可以申请开通【代替用户发布内容到抖…

学习笔记8——JUC入门基础知识

学习笔记系列开头惯例发布一些寻亲消息 链接:https://baobeihuijia.com/bbhj/contents/3/199561.html 进程和线程:进程是资源分配的最小单位,线程是CPU调度的最小单位 进程和线程的主要区别(总结)_进程和线程的区别-CSDN博客进程…

[HTML]Web前端开发技术6(HTML5、CSS3、JavaScript )DIV与SPAN,盒模型,Overflow——喵喵画网页

希望你开心,希望你健康,希望你幸福,希望你点赞! 最后的最后,关注喵,关注喵,关注喵,佬佬会看到更多有趣的博客哦!!! 喵喵喵,你对我真的…

LDO版图后仿性能下降

记录一下LDO,debug 问题1: LDO后仿输出电压下降,前仿输出1.8V,后仿却输出只有1.58V。 解决办法: 功率管的走线问题,布线太少,存在IR drop问题。功率管的面积比较大,需要横竖都多…

解决Linux中文乱码、字体横向问题

解决Linux中文乱码问题 1、locale --查看当先系统编码集 2、echo $LANG --查看当前使用的语言 3、vim ~/.bash_profile --修改配置文件 4、加入以下语句 export LC_ALL"zh_CN.UTF-8" export LANG"zh_CN.UTF-8" 5、source ~/.bash_profile --更新配置文…

docker 安装elasticsearch集群

准备工作 docker 安装好,docker compose 安装好编辑好docker-compose.yml文件(本文会提供)生成elastic-certificates.p12密钥,与docker-compose文件在同一个目录(本文会介绍生成方式)准备elasticsearch配置…

Unittest单元测试之unittest用例执行顺序

unittest用例执行顺序 当在一个测试类或多个测试模块下,用例数量较多时,unittest在执行用例 (test_xxx)时,并不是按从上到下的顺序执行,有特定的顺序。 unittest框架默认根据ACSII码的顺序加载测试用例&a…

钢铁ERP系统有哪些?钢铁ERP软件哪家好用

不同的钢铁材料有差异化的产成品,而这些成品又有多元化的营销策略和制造工艺,每道生产工艺存在差异化的管理方式与策略,而不同的销售策略对应多样化的价格机制等,繁多的业务数据采集和分析工作量较大。 近些年制造工艺的变革也促…

线性表——(3)线性表的链式存储及其运算的实现

一、前言: 由于顺序表的存储特点是用物理上的相邻关系实现逻辑上的相邻关系,它要求用连续的存储单元顺序存储线性表中各数据元素,因此,在对顺序表进行插入、删除时,需要通过移动数据元素来实现,这影响了运行…

Java 线程同步和通信

Android 11 废弃了AsyncTask 线程 Thread: 通过start 开启 源码: start0 native方法 通过虚拟机跟操作系统交互 进程和线程区别: 进程是操作系统的独立区域,各个区域互不干扰,一个进程可以有多条线程同时工作,进程大于线程,线程依赖进程,线程间可以共享资源 Runnable: 接口…

利用 FormData 实现文件上传、监控网路速度和上传进度

利用 FormData 实现文件上传 基础功能:上传文件 演示如下: 概括流程: 前端:把文件数据获取并 append 到 FormData 对象中后端:通过 ctx.request.files 对象拿到二进制数据,获得 node 暂存的文件路径 前端…

用 LangChain 搭建基于 Notion 文档的 RAG 应用

如何通过语言模型查询 Notion 文档?LangChain 和 Milvus 缺一不可。 在整个过程中,我们会将 LangChain 作为框架,Milvus 作为相似性搜索引擎,用二者搭建一个基本的检索增强生成(RAG)应用。在之前的文章中&a…

华为电视盒子 EC6108V9C 刷机成linux系统

场景: 提示:这里简述项目相关背景: 家里装宽带的时候会自带电视盒子,但是由于某些原因电视盒子没有用,于是就只能摆在那里吃土,闲来无事,搞一下 问题描述 提示:这里描述项目中遇到…

[FC][常见Mapper IRQ研究]

本次IRQ研究了如下: VRC2&4(Mapper21,23,25) VRC3(Mapper73) VRC6(Mapper24 & Mapper26) VRC7(Mapper85) MMC3(Mapper4) MMC4(Mapper10) MMC5(Mapper5) Mapper18 Mapper64 Namco163(Mapper19) Sunsoft FME-7(Mapper69) 共计11种Mapper的IRQ操作使用例子 代码内有详细注…