YOLO v8详解

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

回顾一下YOLOv5

  • BackboneCSPDarkNet结构主要结构思想的体现在C3模块这里也是梯度分流的主要思想所在的地方

  • PAN-FPN双流的FPN但是量化还是有些需要图优化才可以达到最优的性能比如cat前后的scale优化等等这里除了上采样、CBS卷积模块最为主要的还有C3模块

  • HeadCoupled Head+Anchor-baseYOLOv3、YOLOv4、YOLOv5、YOLOv7都是Anchor-Base的

  • Loss分类用BEC Loss回归用CIoU Loss。还有一个存在物体的置信度损失总损失为三个损失的加权和

 YOLO V8

具体改进如下

  • Backbone使用的依旧是CSP的思想不过YOLOv5中的C3模块被替换成了C2f模块实现了进一步的轻量化同时YOLOv8依旧使用了YOLOv5等架构中使用的SPPF模块

  • PAN-FPNYOLOv8依旧使用了PAN的思想不过通过对比YOLOv5与YOLOv8的结构图可以看到YOLOv8将YOLOv5中PAN-FPN上采样阶段中的CBS 1*1的卷积结构删除了同时也将C3模块替换为了C2f模块

  • Decoupled-HeadYOLOv8使用了Decoupled-Head

  • Anchor-FreeYOLOv8抛弃了以往的Anchor-Base使用了Anchor-Free的思想

  • 损失函数YOLOv8使用VFL Loss作为分类损失使用DFL Loss+CIOU Loss作为分类损失

  • 样本匹配YOLOv8抛弃了以往的IOU匹配或者单边比例的分配方式而是使用了Task-Aligned Assigner匹配方式。

1.C3和C2F

        C3模块其主要是借助CSPNet提取分流的思想同时结合残差结构的思想设计了所谓的C3 Block这里的CSP主分支梯度模块为BottleNeck模块也就是所谓的残差模块。同时堆叠的个数由参数n来进行控制也就是说不同规模的模型n的值是有变化的。

        其实这里的梯度流主分支可以是任何之前你学习过的模块比如美团提出的YOLOv6中就是用来重参模块RepVGGBlock来替换BottleNeck Block来作为主要的梯度流分支而百度提出的PP-YOLOE则是使用了RepResNet-Block来替换BottleNeck Block来作为主要的梯度流分支。而YOLOv7则是使用了ELAN Block来替换BottleNeck Block来作为主要的梯度流分支。

        

class C3(nn.Module):
    # CSP Bottleneck with 3 convolutions
    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):  # ch_in, ch_out, number, shortcut, groups, expansion
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c1, c_, 1, 1)
        self.cv3 = Conv(2 * c_, c2, 1)  # optional act=FReLU(c2)
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n)))

    def forward(self, x):
        return self.cv3(torch.cat((self.m(self.cv1(x)), self.cv2(x)), 1))

        通过C3模块的代码以及结构图可以看到C3模块和名字思路一致在模块中使用了3个卷积模块Conv+BN+SiLU以及n个BottleNeck。通过C3代码可以看出对于cv1卷积和cv2卷积的通道数是一致的而cv3的输入通道数是前者的2倍因为cv3的输入是由主梯度流分支BottleNeck分支依旧次梯度流分支CBScv2分支cat得到的因此是2倍的通道数而输出则是一样的。

不妨我们再看一下YOLOv7中的模块

 

        YOLOv7通过并行更多的梯度流分支放ELAN模块可以获得更丰富的梯度信息进而或者更高的精度和更合理的延迟。

        C2f模块的结构图如下

        我们可以很容易的看出C2f模块就是参考了C3模块以及ELAN的思想进行的设计让YOLOv8可以在保证轻量化的同时获得更加丰富的梯度流信息。 

class C2f(nn.Module):
    # CSP Bottleneck with 2 convolutions
    def __init__(self, c1, c2, n=1, shortcut=False, g=1, e=0.5):  # ch_in, ch_out, number, shortcut, groups, expansion
        super().__init__()
        self.c = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, 2 * self.c, 1, 1)
        self.cv2 = Conv((2 + n) * self.c, c2, 1)  # optional act=FReLU(c2)
        self.m = nn.ModuleList(Bottleneck(self.c, self.c, shortcut, g, k=((3, 3), (3, 3)), e=1.0) for _ in range(n))

    def forward(self, x):
        y = list(self.cv1(x).split((self.c, self.c), 1))
        y.extend(m(y[-1]) for m in self.m)
        return self.cv2(torch.cat(y, 1))

 2.PAN-FPN


        YOLOv5的Neck部分的结构图如下

YOLOV8的Neck部分的结构图如下:

 

        可以看到相对于YOLOv5YOLOv8将C3模块以及RepBlock替换为了C2f同时细心可以发现相对于YOLOv5YOLOv8选择将上采样之前的1×1卷积去除了将Backbone不同阶段输出的特征直接送入了上采样操作。

3.Head

        YOLO v5的head的部分使用一个卷积同时做分类和回归Coupled-Head 

                

       而YOLOv8则是参考了YOLOX和YOLOV6使用了Decoupled-Head即使用两个卷积分别做分类和回归同时由于使用了DFL 的思想因此回归头的通道数也变成了4*reg_max的形式

         从配置文件上看YOLO v8相当于对代码做了优化在下采样32倍时通道数不加倍。与16倍的通道数相同上采样做拼接时不使用1*1的卷积调整通道数此外将通道数的调整放入下采样和c2f模块

                             yolo v5配置文件右和yolo v8配置文件左


 3.损失函数

        对于YOLOv8其分类损失为VFL Loss其回归损失为CIOU Loss+DFL的形式这里Reg_max默认为16。

        VFL主要改进是提出了非对称的加权操作FL和QFL都是对称的。而非对称加权的思想来源于论文PISA该论文指出首先正负样本有不平衡问题即使在正样本中也存在不等权问题因为mAP的计算是主正样本。


        q是label正样本时候q为bbox和gt的IoU负样本时候q=0当为正样本时候其实没有采用FL而是普通的BCE只不过多了一个自适应IoU加权用于突出主样本。而为负样本时候就是标准的FL了。可以明显发现VFL比QFL更加简单主要特点是正负样本非对称加权、突出正样本为主样本。

        针对这里的DFLDistribution Focal Loss其主要是将框的位置建模成一个 general distribution让网络快速的聚焦于和目标位置距离近的位置的分布。

        DFL 能够让网络更快地聚焦于目标 y 附近的值增大它们的概率
        DFL的含义是以交叉熵的形式去优化与标签y最接近的一左一右2个位置的概率从而让网络更快的聚焦到目标位置的邻近区域的分布也就是说学出来的分布理论上是在真实浮点坐标的附近并且以线性插值的模式得到距离左右整数坐标的权重。

4.样本的匹配

  
        标签分配是目标检测非常重要的一环在YOLOv5的早期版本中使用了MaxIOU作为标签分配方法。然而在实践中发现直接使用边长比也可以达到一阿姨你的效果。而YOLOv8则是抛弃了Anchor-Base方法使用Anchor-Free方法找到了一个替代边长比例的匹配方法TaskAligned。
        为与NMS搭配训练样例的Anchor分配需要满足以下两个规则
        正常对齐的Anchor应当可以预测高分类得分同时具有精确定位不对齐的Anchor应当具有低分类得分并在NMS阶段被抑制。基于上述两个目标TaskAligned设计了一个新的Anchor alignment metric 来在Anchor level 衡量Task-Alignment的水平。并且Alignment metric 被集成在了 sample 分配和 loss function里来动态的优化每个 Anchor 的预测。
Anchor alignment metric
        分类得分和 IoU表示了这两个任务的预测效果所以TaskAligned使用分类得分和IoU的高阶组合来衡量Task-Alignment的程度。使用下列的方式来对每个实例计算Anchor-level 的对齐程度


        s 和 u 分别为分类得分和 IoU 值α 和 β 为权重超参。从上边的公式可以看出来t 可以同时控制分类得分和IoU 的优化来实现 Task-Alignment可以引导网络动态的关注于高质量的Anchor。

Training sample Assignment
        为提升两个任务的对齐性TOOD聚焦于Task-Alignment Anchor采用一种简单的分配规则选择训练样本对每个实例选择m个具有最大t值的Anchor作为正样本选择其余的Anchor作为负样本。然后通过损失函数(针对分类与定位的对齐而设计的损失函数)进行训练。
        

 转载于微信公众号:AI算法与图像处理 

 

 

 

 

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6