本改进已集成到 YOLOv8-Magic 框架。
论文地址:https://arxiv.org/pdf/2406.14239
代码地址:https://github.com/LilianHollard/LeYOLO/tree/main
在深度神经网络中,计算效率对于目标检测至关重要,尤其是在新型模型更倾向于速度而非计算效率(浮点运算次数,FLOP)的情况下。这种演变在一定程度上忽视了嵌入式和面向移动的AI目标检测应用。本文聚焦于基于FLOP的高效目标检测计算的神经网络架构设计选择,并提出了几种优化措施,以提高基于YOLO模型的效率。首先,我们引入了一种高效的背景缩放方法,灵感来自于倒置瓶颈和信息瓶颈原理的理论洞见。其次,我们介绍了快速金字塔架构网络(FPAN),该网络旨在在减少计算资源的同时,快速实现多尺度特征共享。最后,我们提出了一种解耦的网络中网络(DNiN)检测头,旨在为分类和回归任务提供快速且轻量级的计算。在这些优化的基础上,利用更高效的背景,本文为目标检测和以YOLO为中心的模型贡献了一种新的缩放范式,称为LeYOLO。我们的贡献在各种资源限制条件下,持续超越现有模型,达到前所未有的准确性和fl