提出背景

论文:https://arxiv.org/pdf/2110.13389.pdf

代码:https://github.com/jwwangchn/NWD

由于摄像头距离人群较远,人们在图像中的尺寸非常小,可能小于16×16像素,这些微小的人群实例就成为了微小物体。

使用传统的IoU度量方法,如果一个人的检测框由于算法的轻微位置偏差而与实际位置有所不同,即使这种偏差很小(比如几个像素),也会导致IoU值急剧下降。

例如,对于一个6×6像素的微小人物,原本与真实框有一定重叠的检测框,仅因轻微的位置移动就可能从IoU为0.53下降到0.06,这样的变化会误导模型认为检测框与真实框不匹配,从而将其判定为负样本,导致正确的检测被错误地抑制。

在这里插入图片描述
上图一个是微小尺度物体,另一个是正常尺度物体,突出了小的偏差如何导致微小物体的IoU显著下降,而对较大物体则没有这种情况。

为了解决这个问题,我们采用归一化Wasserstein距离(NWD)作为新的相似度度量方法。

具体来说,我们首先将每个检测框和真实框建模为2-D高斯分布。

这样,即使检测框和真实框之间的直接重叠很小或没有重叠,通过计算它们作为高斯分布的NWD,我们也能有效评估它们之间的相似度。

假设一个微小的人物实例的真实框和检测框都被建模为高斯分布。

真实框的中心位于图像中的(100,100)位置,检测框的中心因轻微的位置偏差位于(102,102)。

尽管这个位置偏差导致基于IoU的方法将检测框判定为低质量匹配,但通过计算这两个高斯分布之间的NWD,我们可以得出这两个框实际上是非常相似的,因为Wasserstein距离能够捕捉到它们作为分布的整体形状和位置的相似性,而不仅仅是它们的直接重叠区域。

因此,使用NWD,模型能够正确识别和保留这种轻微偏差的检测结果,从而提高微小物体检测的准确性和鲁棒性。

 


归一化Wasserstein距离

归一化Wasserstein距离 = 高斯分布建模 (为边界框提供更合适的空间表示) + Wasserstein距离 (量化两个分布之间的差异) + 归一化处理 (将距离转换为相似度度量)

  • 将边界框建模为高斯分布,反映其空间特性。

  • 使用Wasserstein距离计算两个高斯分布的差异。

    传统的IoU度量在物体边界框不重叠或大小差异很大时效果不佳。

    Wasserstein距离即使在没有重叠的情况下也能反映分布之间的距离。

  • 归一化处理,将Wasserstein距离转换为0到1之间的相似度度量。

  • 原因: 微小物体检测中,传统IoU表现不佳,需要一种能够处理空间偏差和尺寸差异的新方法。

下面公式描述在物体检测中,将边界框建模为高斯分布,并通过归一化的高斯Wasserstein距离(NWD)计算这些分布之间的相似性。

  1. 高斯分布建模

    • 定义边界框:对于边界框 R = ( c x , c y , w , h ) R = (c_x, c_y, w, h) R=(cx,cy,w,h),其中 ( c x , c y ) (c_x, c_y) (cx,cy) 是中心坐标,( w ) 和 ( h ) 分别是宽度和高度。
    • 描述其内接椭圆的方程: ( x − μ x ) 2 σ x 2 + ( y − μ y ) 2 σ y 2 = 1 \frac{(x - \mu_x)^2}{\sigma_x^2} + \frac{(y - \mu_y)^2}{\sigma_y^2} = 1 σx2(xμx)2+σy2(yμy)2=1,其中 μ x = c x , μ y = c y \mu_x = c_x, \mu_y = c_y μx=cx,μy=cy 是椭圆中心, σ x = w 2 , σ y = h 2 \sigma_x = \frac{w}{2}, \sigma_y = \frac{h}{2} σx=2w,σy=2h 是沿着 ( x ) 轴和 ( y ) 轴的半轴长度。
    • 2D高斯分布的概率密度函数: f ( x ∣ μ , Σ ) = exp ⁡ ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) 2 π ∣ Σ ∣ 1 / 2 f(x|\mu, \Sigma) = \frac{\exp\left(-\frac{1}{2}(x - \mu)^T\Sigma^{-1}(x - \mu)\right)}{2\pi|\Sigma|^{1/2}} f(xμ,Σ)=2π∣Σ1/2exp(21(xμ)TΣ1(xμ)),其中 ( x ) 是坐标, μ \mu μ 是均值向量, Σ \Sigma Σ 是协方差矩阵。
  2. 归一化高斯Wasserstein距离

    • 定义2D高斯分布之间的Wasserstein距离: W 2 2 ( μ 1 , μ 2 ) = ∥ m 1 − m 2 ∥ 2 2 + T r [ Σ 1 + Σ 2 − 2 ( Σ 2 1 / 2 Σ 1 Σ 2 1 / 2 ) 1 / 2 ] W^2_2(\mu_1, \mu_2) = \|m_1 - m_2\|^2_2 + Tr\left[\Sigma_1 + \Sigma_2 - 2\left(\Sigma^{1/2}_2 \Sigma_1 \Sigma^{1/2}_2\right)^{1/2}\right] W22(μ1,μ2)=m1m222+Tr[Σ1+Σ22(Σ21/2Σ1Σ21/2)1/2]
    • 将上述公式简化为Frobenius范数形式: W 2 2 ( μ 1 , μ 2 ) = ∥ m 1 − m 2 ∥ 2 2 + ∥ Σ 1 1 / 2 − Σ 2 1 / 2 ∥ F 2 W^2_2(\mu_1, \mu_2) = \|m_1 - m_2\|^2_2 + \left\|\Sigma^{1/2}_1 - \Sigma^{1/2}_2\right\|^2_F W22(μ1,μ2)=m1m222+ Σ11/2Σ21/2 F2
    • 对于来自边界框A和B的高斯分布 N a , N b N_a, N_b Na,Nb,进一步简化: W 2 2 ( N a , N b ) = ∥ [ c x a c y a w a 2 h a 2 ] − [ c x b c y b w b 2 h b 2 ] ∥ 2 2 W^2_2(N_a, N_b) = \left\| \left[ \begin{array}{c} c_{xa} \\ c_{ya} \\ \frac{w_a}{2} \\ \frac{h_a}{2} \end{array} \right] - \left[ \begin{array}{c} c_{xb} \\ c_{yb} \\ \frac{w_b}{2} \\ \frac{h_b}{2} \end{array} \right] \right\|^2_2 W22(Na,Nb)= cxacya2wa2ha cxbcyb2wb2hb 22
    • 归一化形式的NWD: N W D ( N a , N b ) = exp ⁡ ( − W 2 2 ( N a , N b ) C ) NWD(N_a, N_b) = \exp\left( -\sqrt{\frac{W^2_2(N_a, N_b)}{C}} \right) NWD(Na,Nb)=exp(CW22(Na,Nb) ),其中 ( C ) 是与数据集密切相关的常数。

通过这个流程,我们可以理解如何将物体检测中的边界框通过高斯分布进行建模,并计算它们之间的归一化Wasserstein距离来作为一种新的相似度度量方法。

ComputeLossOTA类中描述的损失计算方法中,特别是在计算框损失(lbox)时,涉及到了一个基于高斯函数的Wasserstein距离损失的概念。这种损失是通过计算两个分布之间的Wasserstein距离来实现的,其中使用高斯函数来标准化这个距离,从而计算损失。

计算步骤

高斯函数的Wasserstein距离损失是通过以下几个步骤计算的:

  1. 计算中心点的L2范数 (p1) 和 宽高的Frobenius范数 (p2),这两个范数分别代表了预测框和真实框中心位置的差异以及宽高比例的差异。

  2. 计算距离:将p1p2相加,然后开平方根,得到预测框和真实框之间的欧氏距离。

  3. 应用高斯函数:使用高斯函数exp(-distance / 2.5)来标准化这个距离,其中distance是上一步计算的欧氏距离。

    这个高斯函数的作用是将距离转换成一个接近于0的值,越远的距离转换后的值越小。

  4. Wasserstein损失:最终的Wasserstein距离损失是通过1.0 - wasserstein来计算的,其中wasserstein是经过高斯函数处理的距离。

    这意味着,如果预测框和真实框之间的距离很小,wasserstein值将接近1,导致损失接近0;如果距离很大,则wasserstein值接近0,导致损失增大。

这种损失计算方法旨在评估预测框与真实框之间的相似度,通过最小化Wasserstein距离来优化模型,使预测框更准确地覆盖到真实目标上。

效果

这种方法被证明在处理微小物体的检测任务时,尤其是在这些物体的边界框不重叠或大小差异很大时,优于传统的IoU度量方法。

在这里插入图片描述

在这里插入图片描述
NWD度量对偏差的敏感性似乎较低,表明在不同物体尺度上性能更为平滑和一致。

 


YOLO v5 小目标改进

替换 yolov5/utils/loss.py/ComputeLoss:

import torch
import torch.nn as nn
from utils.general import bbox_iou  # 用于计算IoU

class ComputeLoss:
    # 初始化损失计算类
    def __init__(self, model, autobalance=False):
        self.sort_obj_iou = False  # 是否对对象的IoU进行排序
        device = next(model.parameters()).device  # 获取模型参数的设备类型
        h = model.hyp  # 获取超参数

        # 定义类别和对象存在性的二元交叉熵损失函数
        BCEcls = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([h['cls_pw']], device=device))
        BCEobj = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([h['obj_pw']], device=device))

        # 应用标签平滑
        self.cp, self.cn = smooth_BCE(eps=h.get('label_smoothing', 0.0))

        # 应用焦点损失
        g = h['fl_gamma']
        if g > 0:
            BCEcls, BCEobj = FocalLoss(BCEcls, g), FocalLoss(BCEobj, g)

        det = model.model[-1] if hasattr(model, 'model') else model[-1]  # 获取模型的Detect层
        # 根据层数调整平衡系数
        self.balance = {3: [4.0, 1.0, 0.4]}.get(det.nl, [4.0, 1.0, 0.25, 0.06, 0.02])
        self.ssi = list(det.stride).index(16) if autobalance else 0  # 如果自动平衡,获取步长为16的索引
        # 将初始化的变量赋值给实例
        self.BCEcls, self.BCEobj, self.gr, self.hyp, self.autobalance = BCEcls, BCEobj, 1.0, h, autobalance
        for k in 'na', 'nc', 'nl', 'anchors':
            setattr(self, k, getattr(det, k))

    def __call__(self, p, targets):
        device = targets.device
        # 初始化分类、框和对象存在性损失
        lcls, lbox, lobj = torch.zeros(1, device=device), torch.zeros(1, device=device), torch.zeros(1, device=device)
        # 构建目标
        tcls, tbox, indices, anchors = self.build_targets(p, targets)

        # 计算损失
        for i, pi in enumerate(p):
            b, a, gj, gi = indices[i]
            tobj = torch.zeros_like(pi[..., 0], device=device)  # 目标对象存在性张量

            n = b.shape[0]  # 目标数量
            if n:
                # 获取与目标对应的预测子集
                ps = pi[b, a, gj, gi]

                # 回归损失
                pxy = ps[:, :2].sigmoid() * 2 - 0.5
                pwh = (ps[:, 2:4].sigmoid() * 2) ** 2 * anchors[i]
                pbox = torch.cat((pxy, pwh), 1)  # 预测的框

                # 计算IoU和Wasserstein距离
                iou = bbox_iou(pbox.T, tbox[i], x1y1x2y2=False, CIoU=True)
                wasserstein = calculate_nwd(pbox, tbox[i])  # 计算NWD
                # 组合IoU和Wasserstein损失
                lbox += 0.9 * (1.0 - iou).mean() + 0.1 * (1.0 - wasserstein).mean()

                # 对象存在性损失
                score_iou = iou.detach().clamp(0).type(tobj.dtype)
                if self.sort_obj_iou:
                    sort_id = torch.argsort(score_iou)
                    b, a, gj, gi, score_iou = b[sort_id], a[sort_id], gj[sort_id], gi[sort_id], score_iou[sort_id]
                tobj[b, a, gj, gi] = (1.0 - self.gr) + self.gr * score_iou  # 分配对象存在性分数

                # 分类损失
                if self.nc > 1:
                    t = torch.full_like(ps[:, 5:], self.cn, device=device)  # 目标
                    t[range(n), tcls[i]] = self.cp
                    lcls += self.BCEcls(ps[:, 5:], t)  # 二元交叉熵损失

            obji = self.BCEobj(pi[..., 4], tobj)
            lobj += obji * self.balance[i]  # 对象存在性损失
            if self.autobalance:
                self.balance[i] = self.balance[i] * 0.9999 + 0.0001 / obji.detach().item()

        if self.autobalance:
            self.balance = [x / self.balance[self.ssi] for x in self.balance]
        lbox *= self.hyp['box']
        lobj *= self.hyp['obj']
        lcls *= self.hyp['cls']
        bs = tobj.shape[0]  # 批量大小

        return (lbox + lobj + lcls) * bs, torch.cat((lbox, lobj, lcls)).detach()

   def build_targets(self, p, targets):
    # 为compute_loss()构建目标,输入targets格式为(image,class,x,y,w,h)
    na, nt = self.na, targets.shape[0]  # 锚点数量,目标数量
    tcls, tbox, indices, anch = [], [], [], []  # 初始化分类目标,框目标,索引,锚点列表
    gain = torch.ones(7, device=targets.device)  # 归一化到网格空间的增益
    ai = torch.arange(na, device=targets.device).float().view(na, 1).repeat(1, nt)  # 与.repeat_interleave(nt)相同
    targets = torch.cat((targets.repeat(na, 1, 1), ai[:, :, None]), 2)  # 添加锚点索引

    g = 0.5  # 偏移量
    off = torch.tensor([[0, 0],  # 定义偏移量,用于微调目标位置
                        [1, 0], [0, 1], [-1, 0], [0, -1]],  # j,k,l,m
                       device=targets.device).float() * g  # 偏移量

    for i in range(self.nl):  # 遍历每个预测层
        anchors = self.anchors[i]  # 当前层的锚点
        gain[2:6] = torch.tensor(p[i].shape)[[3, 2, 3, 2]]  # xyxy增益

        # 将目标匹配到锚点
        t = targets * gain  # 调整目标到当前层的尺寸
        if nt:
            # 匹配
            r = t[:, :, 4:6] / anchors[:, None]  # 宽高比
            j = torch.max(r, 1 / r).max(2)[0] < self.hyp['anchor_t']  # 比较宽高比,选择最佳匹配的锚点
            t = t[j]  # 筛选

            # 应用偏移量
            gxy = t[:, 2:4]  # 网格xy
            gxi = gain[[2, 3]] - gxy  # 反向偏移
            j, k = ((gxy % 1 < g) & (gxy > 1)).T  # 根据偏移量微调位置
            l, m = ((gxi % 1 < g) & (gxi > 1)).T
            j = torch.stack((torch.ones_like(j), j, k, l, m))
            t = t.repeat((5, 1, 1))[j]
            offsets = (torch.zeros_like(gxy)[None] + off[:, None])[j]
        else:
            t = targets[0]
            offsets = 0

        # 定义
        b, c = t[:, :2].long().T  # 图片编号,类别
        gxy = t[:, 2:4]  # 网格xy
        gwh = t[:, 4:6]  # 网格wh
        gij = (gxy - offsets).long()
        gi, gj = gij.T  # 网格xy索引

        # 添加到列表
        a = t[:, 6].long()  # 锚点索引
        indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1)))  # 添加图片编号,锚点索引,网格索引
        tbox.append(torch.cat((gxy - gij, gwh), 1))  # 添加框
        anch.append(anchors[a])  # 添加锚点
        tcls.append(c)  # 添加类别

    return tcls, tbox, indices, anch  # 返回分类目标,框目标,索引,锚点

定义了一个ComputeLoss类,用于计算深度学习模型中的损失,特别是针对目标检测任务。

它包括初始化函数__init__和两个主要方法__call__以及build_targets

__init__ 方法用于初始化ComputeLoss类的实例。

  • 参数:

    • model: 模型对象,用于获取模型的超参数和层。
    • autobalance: 布尔值,表示是否自动平衡不同损失的权重。
  • 实现细节:

    • 获取模型的设备信息,确保损失计算在相同的设备上进行。
    • 定义二元交叉熵损失(BCEWithLogitsLoss)用于分类(BCEcls)和对象存在性(BCEobj)的计算。
    • 应用标签平滑和焦点损失,以改进模型性能。
    • 调整不同预测层损失的平衡系数。
    • 初始化一些基础属性,如锚点数量、类别数量、层数等。

__call__ 方法在实例被当作函数调用时执行,用于计算损失。

  • 参数:

    • p: 模型的预测输出。
    • targets: 真实标签,包含目标的类别、位置等信息。
  • 实现细节:

    • 初始化分类损失、框损失和对象存在性损失。
    • 调用build_targets方法,构建目标的分类、框和索引。
    • 遍历每个预测层,计算对应的损失,并更新总损失。
    • 根据超参数调整损失权重。
    • 返回总损失和各部分损失的汇总。

build_targets 方法用于根据模型预测和真实标签构建训练目标。

  • 参数:

    • p: 模型的预测输出。
    • targets: 真实标签,格式为(image, class, x, y, w, h)。
  • 实现细节:

    • 初始化分类目标、框目标、索引和锚点列表。
    • 对于每个预测层,根据其特定尺寸调整目标。
    • 匹配目标与锚点,应用偏移量以微调目标位置。
    • 对每个有效目标,记录其图片编号、类别、网格索引和锚点信息。
    • 返回构建好的分类目标、框目标、索引和锚点。

YOLO v7 小目标改进

YOLO v8 小目标改进

路径:\ultralytics-main\ultralytics\models\utils\loss.py

末尾,加入 calc_wasserstein_distance 函数:

def calc_wasserstein_distance(bbox1, bbox2, format_xywh=True): 
    # 定义计算Wasserstein距离的函数,输入两个边界框和格式标志
    bbox2 = bbox2.transpose()  
    # 转置第二个边界框,以匹配第一个边界框的维度
    
    if format_xywh:  # 如果边界框的格式是中心点坐标加宽高
        center_x1, center_y1 = (bbox1[0] + bbox1[2]) / 2, (bbox1[1] + bbox1[3]) / 2  
        # 计算第一个边界框的中心点x,y坐标
        width1, height1 = bbox1[2] - bbox1[0], bbox1[3] - bbox1[1]  
        # 计算第一个边界框的宽度和高度
        center_x2, center_y2 = (bbox2[0] + bbox2[2]) / 2, (bbox2[1] + bbox2[3]) / 2  
        # 计算第二个边界框的中心点x,y坐标
        width2, height2 = bbox2[2] - bbox2[0], bbox2[3] - bbox2[1]  
        # 计算第二个边界框的宽度和高度
    else:  # 如果边界框的格式是左上角坐标加宽高
        center_x1, center_y1, width1, height1 = bbox1[0], bbox1[1], bbox1[2], bbox1[3]  
        # 直接使用第一个边界框的坐标和尺寸
        center_x2, center_y2, width2, height2 = bbox2[0], bbox2[1], bbox2[2], bbox2[3]  
        # 直接使用第二个边界框的坐标和尺寸
        
    dist_center_x = (center_x1 - center_x2) ** 2  
    # 计算中心点x坐标差的平方
    dist_center_y = (center_y1 - center_y2) ** 2  
    # 计算中心点y坐标差的平方
    distance_centers = dist_center_x + dist_center_y  
    # 计算中心点之间的距离(欧氏距离的平方)
    
    distance_width = ((width1 - width2) / 2) ** 2  
    # 计算宽度差的一半的平方
    distance_height = ((height1 - height2) / 2) ** 2  
    # 计算高度差的一半的平方
    distance_sizes = distance_width + distance_height  
    # 计算尺寸差异(宽度和高度差异的和)
    
    return distance_centers + distance_sizes  
    # 返回中心点差异和尺寸差异的总和作为Wasserstein距离

用于计算两个矩形框(通常用于目标检测中的边界框)之间的Wasserstein距离。

边界框用来表示图像中物体的位置和大小。

Wasserstein距离是一种衡量两个概率分布距离的方法,在这里被用于计算两个矩形框之间的差异。

代码分析:

  • 输入参数box1box2分别代表两个矩形框,每个矩形框可以以(x_min, y_min, x_max, y_max)(center_x, center_y, width, height)的格式表示,这取决于xywh参数的值。
  • 如果xywh=True,则将box1box2的坐标转换为中心点坐标加宽和高的格式。
  • 然后计算两个矩形框中心点在x轴和y轴方向的L2范数(即欧几里得距离的平方),以及宽度和高度的Frobenius范数(在这里简化为差的平方)。
  • 最后,返回中心点差异和尺寸差异的和,这个和代表了两个矩形框之间的Wasserstein距离。

YOLO v9 小目标改进

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐