本专栏内容均为博主独家全网首发,未经授权,任何形式的复制、转载、洗稿或传播行为均属违法侵权行为,一经发现将采取法律手段维护合法权益。我们对所有未经授权传播行为保留追究责任的权利。请尊重原创,支持创作者的努力,共同维护网络知识产权。
更深层的神经网络更难训练。我们提出了一个残差学习框架,以简化相较于先前使用的网络更深层次的训练。我们明确地将层重新构建为相对于层输入的学习残差函数,而不是学习无参考的函数。我们提供了全面的实证证据表明,这些残差网络更容易优化,并且可以通过显著增加深度获得更高的准确性。在ImageNet数据集上,我们评估了深度达152层的残差网络——比VGG网络[40]深8倍,但复杂度仍然较低。这些残差网络的集成在ImageNet测试集上取得了3.57%的错误率。这个结果赢得了ILSVRC 2015分类任务的第一名。我们还在CIFAR-10数据集上进行了100层和1000层的分析。
对于许多视觉识别任务来说,表示的深度至关重要。仅仅由于我们极深的表示,我们在COCO目标检测数据集上获得了28%的相对提升。深度残差网络是我们在ILSVRC和COC