Versions

2015.06_Yolov1

Single Stage, anchor-free object dection.

每个位置的feature map通过MLP只预测B=2个框的回归量,没有利用1x1全卷积的 属性,也没有引入anchor的多尺度/多比例概念. 同时对于回归量的学习使用的相对于cell中心的偏移和相对于输入的比例,不容易收敛.

YOLOV1

2016.12_Yolov2_Yolo9000

  • Batch Norm
  • High input resolution
  • Convolutional anchor boxes:使用卷积替代MLP得到不同anchor的输出
  • Anchor cluster:根据训练样本聚类anchor
  • Direct locaiton prediction:只在cell内部预测候选框
  • Fine-grained feature:增大输出特征的分辨率
  • Multi-scale training:多尺度训练
  • Backbone update: Darknet19替换GoogleNet

YOLOV2

2018.04_Yolov3_Incremental

YOLOV3

  • 多个Sigmoid二分类:
  • 引入FPN多尺度预测
  • DarkNet53增加残差结构

2020.04_Yolov4

Note: 原始作者已不再维护Yolo系列, 以后的文章为其他人维护

文章总结了检测任务可用的tricks,主要包括以下几个方面:

DIoU loss的计算:

$$ L_{DIOU}=1-IOU(A,B)+\rho^2(A_c,B_c)/c^2 $$

其中 $\rho$ 是$A_c$, $B_c$两个中心点的欧式距离,$c$是外接矩形对角线的长度. CIoU loss在DIoU的基础上增加了长宽比的惩罚项.

YOLOV4

DIoU

参考链接

https://docs.ultralytics.com/