对自定义数据集进行简单检测
这篇文章比我通常习惯写的要短得多。我最近和学校一起参加了广泛的视野课程。TheSchoolOfAI
我使用YOLOV3做了两个小项目。第一种方法是使用预先训练好的权重,对我手持椰子数据集中的物品的图像进行推断。
对于第二个,我收集并注释了100张包含安全帽、背心、靴子和面具的图像,并对YOLO进行了培训。图像注释是使用这个整洁的注释工具完成的。annotation tool
该模型被训练了13个时期,得到了0.5分的MAP@0.54。以下是一些模型预测。
之后,我从YouTube上收集了一段12s的视频,其中包含了上面提到的许多对象,并使用ffmeg将它们转换为帧。ffmeg
我在提取的帧上运行了目标检测模型,并将它们转换回视频-
我还探索了如何使用K-Means聚类生成锚框,您可以在这个repo中找到这一点。repo
链接到OpenCV-YOLO回购。repo
链接到培训和推理报告。repo
参考文献
用OpenCV和Python https://pysource.com/2019/06/27/yolo-object-detection-using-opencv-with-python/实现Sergio Canu yolo目标检测Sergio Canu https://pysource.com/2019/06/27/yolo-object-detection-using-opencv-with-python/
雷德蒙、约瑟夫和法哈迪,阿里2018年YOLOv3:增量改进https://pjreddie.com/darknet/yolo/https://pjreddie.com/darknet/yolo/
https://github.com/miki998/YoloV3_Annotation_Toolhttps://github.com/miki998/YoloV3_Annotation_Tool
原创文章,作者:fendouai,如若转载,请注明出处:https://panchuang.net/2021/07/26/%e5%9f%ba%e4%ba%8eyolov3%e7%9a%84%e7%9b%ae%e6%a0%87%e6%a3%80%e6%b5%8b-2/