Versions
2015.06_Yolov1
Single Stage, anchor-free object dection.
每个位置的feature map通过MLP只预测B=2个框的回归量,没有利用1x1
全卷积的
属性,也没有引入anchor的多尺度/多比例概念.
同时对于回归量的学习使用的相对于cell中心的偏移和相对于输入的比例,不容易收敛.
2016.12_Yolov2_Yolo9000
- Batch Norm
- High input resolution
- Convolutional anchor boxes:使用卷积替代MLP得到不同anchor的输出
- Anchor cluster:根据训练样本聚类anchor
- Direct locaiton prediction:只在cell内部预测候选框
- Fine-grained feature:增大输出特征的分辨率
- Multi-scale training:多尺度训练
- Backbone update: Darknet19替换GoogleNet
2018.04_Yolov3_Incremental
- 多个Sigmoid二分类:
- 引入FPN多尺度预测
- DarkNet53增加残差结构
2020.04_Yolov4
Note: 原始作者已不再维护Yolo系列, 以后的文章为其他人维护
文章总结了检测任务可用的tricks,主要包括以下几个方面:
DIoU loss的计算:
$$ L_{DIOU}=1-IOU(A,B)+\rho^2(A_c,B_c)/c^2 $$
其中 $\rho$ 是$A_c$, $B_c$两个中心点的欧式距离,$c$是外接矩形对角线的长度. CIoU loss在DIoU的基础上增加了长宽比的惩罚项.