1. 磐创AI-开放猫官方网站首页
  2. 计算机视觉

PP-YOLO超越YOLOv4-目标检测的进步

作者|Jacob Solawetz
编译|Flin
来源|towardsdatascience

PP-YOLO超越YOLOv4-目标检测的进步

PP-YOLO评估指标比现有最先进的对象检测模型YOLOv4表现出更好的性能。然而,百度的作者写道:

本文不打算介绍一种新型的目标检测器。它更像是一个食谱,告诉你如何逐步建立一个更好的探测器。

让我们一起看看。

YOLO发展史

YOLO最初是由Joseph Redmon编写的,用于检测目标。目标检测是一种计算机视觉技术,它通过在目标周围画一个边界框来定位和标记对象,并确定一个给定的框所属的类标签。和大型NLP transformers不同,YOLO设计得很小,可为设备上的部署提供实时推理速度。

YOLO-9000是Joseph Redmon出版的第二个“YOLOv2”目标探测器,它改进了探测器,并强调了该检测器能够推广到世界上任何物体的能力。

PP-YOLO超越YOLOv4-目标检测的进步

YOLOv3对检测网络做了进一步的改进,并开始将目标检测过程纳入主流。我们开始发布关于如何在PyTorch中训练YOLOv3、如何在Keras中训练YOLOv3的教程,并将YOLOv3的性能与EfficientDet(另一种最先进的检测器)进行比较。

然后约瑟夫·雷德曼出于伦理考虑退出了目标探测游戏。

当然,开源社区接过了指挥棒,继续推动YOLO技术的发展。

YOLOv4最近由Alexey AB在他的YOLO Darknet存储库中发表。YOLOv4主要是其他已知的计算机视觉技术的集合,通过研究过程进行了组合和验证。请看这里深入了解YOLOv4。

YOLOv4论文的读数与PP-YOLO论文相似,如下所示。我们提供了一些关于如何在Darknet中训练YOLOv4的很好的训练教程。

然后,就在几个月前,YOLOv5被发布了。YOLOv5采用了Darknet(基于C)的训练环境,并将网络转换为Pytorch。改进的训练技术进一步提高了模型的性能,并创建了一个非常好用的开箱即用的对象检测模型。从那以后,我们一直鼓励使用Roboflow的开发人员通过这个YOLOv5训练教程将他们的注意力转向YOLOv5,以形成他们的自定义对象检测器。

输入PP-YOLO。

PP代表什么?

PP是百度编写的深度学习框架PaddlePaddle的缩写。

PP-YOLO超越YOLOv4-目标检测的进步

如果你不熟悉Paddle,那我们就在同一条船上了。paddle最初是用Python编写的,它看起来类似于PyTorch和TensorFlow。深入研究paddle框架很有趣,但超出了本文的范围。

PP-YOLO贡献

PP-YOLO的论文读起来很像YOLOv4论文,因为它是计算机视觉中已知的技术的汇总。新颖的贡献是证明这些技术的集成可提高性能,并提供消融研究,以研究每一步对模型的帮助程度。

在我们深入研究PP-YOLO的贡献之前,先回顾一下YOLO检测器的体系结构。

解剖YOLO检测器

PP-YOLO超越YOLOv4-目标检测的进步

YOLO检测器分为三个主要部分。

YOLO Backbone:YOLO Backbone(骨干)是一个卷积神经网络,它将图像像素合并在一起以形成不同粒度的特征。骨干通常在分类数据集(通常为ImageNet)上进行预训练。

YOLO Neck:YOLO Neck(上面选择了FPN)在传递到预测头之前对ConvNet图层表示进行组合和混合。

YOLO Head:这是网络中进行边界框和类预测的部分。它由关于类,框和对象的三个YOLO损失函数指导。

现在,让我们深入了解PP YOLO做出的贡献。

PP-YOLO超越YOLOv4-目标检测的进步

更换骨干网

第一种PP YOLO技术是用Resnet50-vd-dcn ConvNet骨干替换YOLOv3 Darknet53骨干。Resnet是一个更流行的骨干,它的执行优化了更多的框架,并且其参数少于Darknet53。通过交换此骨干可以看到mAP的改进,这对PP YOLO来说是一个巨大的胜利。

PP-YOLO超越YOLOv4-目标检测的进步

模型参数的EMA

PP-YOLO跟踪网络参数的指数移动平均,以保持模型权重的阴影预测时间。这已经被证明可以提高推理的准确性。

更大的批量

PP-YOLO将批量大小从64增加到192。当然,如果有GPU内存限制,这很难实现。

DropBlock正则化

PP-YOLO在FPN颈部实现DropBlock正则化(在过去,这通常发生在骨干)。在网络的给定步骤中,DropBlock会随机删除一部分训练特征,以指示模型不依赖于关键特征进行检测。

PP-YOLO超越YOLOv4-目标检测的进步

IOU损失

YOLO损失函数不能很好地转换为mAP指标,该指标在计算中大量使用了Union上的Intersection。因此,在考虑到最终预测的情况下编辑训练损失函数是很有用的。这个编辑也出现在YOLOv4中。

IoU Aware

PP-YOLO网络添加了一个预测分支,以预测给定对象的模型估计的IOU。在决定是否预测对象时包含此IoU Aware可提高性能。

电网灵敏度

旧的YOLO模型不能很好地在锚框区域的边界附近进行预测。为了避免这个问题,可以稍微不同地定义框坐标。YOLOv4中也有这种技术。

矩阵非最大抑制

非最大抑制是一种删除候选对象的提议以进行分类的技术。矩阵非最大抑制是一种并行排序这些候选预测的技术,它加快了计算速度。

CoordConv

CoordConv受ConvNets一个问题的激励,即ConvNets仅将(x,y)坐标映射到一个热像素空间。CoordConv解决方案使卷积网络可以访问其自己的输入坐标。CoordConv干预措施上方标有黄色菱形。有关更多详细信息,请参见CordConv文件。

SPP

空间金字塔池化是骨干层之后的一个额外块,用于混合和合并空间特征。还在YOLOv4和YOLOv5中实现。

更好的预训练骨干

PP YOLO的作者提炼出更大的ResNet模型作为骨干。更好的预训练模型显示也可以改善下游转移学习。

PP-YOLO是最先进的吗?

PP-YOLO胜过2020年4月23日发布的YOLOv4结果。

公平地说,作者指出这可能是一个错误的问题。作者的意图似乎不只是“引入一种新颖的新型检测器”,而是表明仔细调整对象检测器以最大化性能的过程。在此处引用本文的介绍:

本文的重点是如何堆叠一些几乎不影响效率的有效技巧以获得更好的性能……本文无意介绍一种新颖的目标检测器。它更像一个食谱,它告诉你如何逐步构建更好的检测器。我们发现了一些对YOLOv3检测器有效的技巧,可以节省开发人员的反复试验时间。最终的PP-YOLO模型以比YOLOv4更快的速度将COCO的mAP从43.5%提高到45.2%

上面的PP-YOLO贡献参考将YOLOv3模型在COCO对象检测任务上从38.9 mAP提升到44.6 mAP,并将推理FPS从58增加到73。论文中显示了这些指标,胜过了YOLOv4和EfficientDet的当前发布结果。

在以YOLOv5为基准对PP-YOLO进行基准测试时,YOLOv5似乎仍在V100上具有最快的推理精度(AP与FPS)。但是,YOLOv5论文仍然有待发布。此外,研究表明,在YOLOv5 Ultralytics存储库上训练YOLOv4体系结构的性能要优于YOLOv5,并且,以可移植的方式,使用YOLOv5贡献进行训练的YOLOv4的性能将胜过此处发布的PP-YOLO结果。这些结果仍有待正式发布,但可以追溯到GitHub上的讨论。

PP-YOLO超越YOLOv4-目标检测的进步
PP-YOLO超越YOLOv4-目标检测的进步

值得注意的是,在YOLOv4中使用的许多技术(如架构搜索和数据扩充)并没有在ppyolo中使用。这意味着,随着更多这些技术的结合和集成,目标检测的最新技术仍有发展的空间。

毋庸置疑,这是实施计算机视觉技术的激动人心的时刻。

我应该从YOLOv4或YOLOv5切换到PP-YOLO吗?

PP-YOLO模型显示了最先进的目标检测的前景,但与其他对象检测器相比,改进是渐进的,它是在一个新的框架中编写的。在这个阶段,最好的做法是通过在自己的数据集上训练PP-YOLO来发展自己的经验结果。

同时,我建议你查看以下YOLO教程,让你的对象探测器成为现实:

原文链接:https://towardsdatascience.com/pp-yolo-surpasses-yolov4-object-detection-advances-1efc2692aa62

欢迎关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官方文档:
http://sklearn123.com/

欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/

原创文章,作者:磐石,如若转载,请注明出处:https://panchuang.net/2020/10/19/pp-yolo%e8%b6%85%e8%b6%8ayolov4-%e7%9b%ae%e6%a0%87%e6%a3%80%e6%b5%8b%e7%9a%84%e8%bf%9b%e6%ad%a5/

发表评论

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息