UPerNet:Unified Perceptual Parsing for Scene Understanding论文解读

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

Unified Perceptual Parsing for Scene Understanding

在这里插入图片描述

论文[1807.10221] Unified Perceptual Parsing for Scene Understanding (arxiv.org)

代码CSAILVision/unifiedparsing: Codebase and pretrained models for ECCV’18 Unified Perceptual Parsing (github.com)

期刊/会议ECCV 2018

摘要

人类在多个层面上识别视觉世界:我们毫不费力地对场景进行分类并检测内部物体同时还识别物体的纹理和表面及其不同的组成部分。在本文中我们研究了一种名为统一感知解析(Unified Perceptual Parsing)的新任务该任务要求机器视觉系统从给定的图像中识别尽可能多的视觉概念。开发了一个名为UPerNet的多任务框架和训练策略以从异构图像标注中学习。我们在统一感知解析上对我们的框架进行了基准测试并表明它能够有效地从图像中分割出广泛的概念。训练后的网络被进一步应用于发现自然场景中的视觉知识。

1、简介

人类的视觉系统能够从一眼中提取出大量的语义信息。我们不仅可以立即解析其中包含的对象还可以识别对象的细粒度属性例如它们的部件、纹理和材质。例如在图1中我们可以识别出这是一个客厅里面有各种物品如咖啡桌、一幅画和墙壁。同时我们确定咖啡桌有腿围裙和顶部以及咖啡桌是木制的沙发表面是针织的。我们对视觉场景的解释是在多个层面上组织的从对材料和纹理的视觉感知到对物体和部分的语义感知。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-p1A7Ybn9-1673920639557)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230115154435797.png)]

由于深度神经网络和大规模图像数据集的发展计算机视觉在人类视觉识别方面取得了很大的进展。然而各种视觉识别任务大多是独立研究的。例如目标分类和场景识别已经达到了人类级别。对象和内容在像素级上被精确地解析和分割;在一些论文中研究了纹理和材料的感知和识别。由于场景识别、目标检测、纹理和材料识别在人类视觉感知中交织在一起这就为计算机视觉系统提出了一个重要的问题:神经网络是否有可能同时解决几个视觉识别任务?这促使我们的工作引入了一种名为统一感知解析(UPP)的新任务以及一种新的学习方法来解决它。

在UPP中有几个挑战。首先没有一个单一的图像数据集标注了所有级别的视觉信息。各种图像数据集仅针对特定任务构建例如用于场景解析的ADE20K用于纹理识别的描述纹理数据集(Describe Texture Dataset, DTD)用于材料和表面识别的OpenSurfaces。其次来自不同感知级别的标注是异构的。例如ADE20K具有像素级标注而DTD中的纹理标注是图像级的。

为了解决上述挑战我们提出了一个框架该框架克服了不同数据集的异质性并学习联合检测各种视觉概念。一方面在每次迭代中我们随机抽取一个数据源只更新路径上的相关层从所选的数据源推断出概念。这样的设计避免了不稳定的行为即关于某个概念的标注的梯度可能有噪声。另一方面我们的框架利用了单一网络特征的层次性即对于具有更高层次语义的概念如场景分类分类器只建立在具有更高层次语义的特征图上;对于较低级的语义如对象和材料分割分类器是建立在所有阶段融合的特征图或仅具有低级语义的特征图上。我们进一步提出了一种训练方法使网络能够仅使用图像级标注来预测像素级纹理标签。

我们的贡献总结如下:1)我们提出了一个新的解析任务统一感知解析(Unified Perceptual Parsing)它要求系统一次解析多个视觉概念。2)我们提出了一种新的网络称为UPerNet它具有分层结构可以从多个图像数据集中的异构数据中学习。3)该模型能够共同推断和发现图像下面丰富的视觉知识。

1.1 相关工作

我们的工作建立在先前的语义分割和多任务学习的任务上。

语义分割为了生成给定图像的像素级语义预测图像分类网络被扩展以生成语义分割掩码。Chen等的开创性工作基于结构预测使用条件随机场(CRF)来细化CNN最终提取的特征图。为这种像素级分类任务设计的最流行的框架是全卷积网络(FCN)它用卷积层取代分类网络中的全连接层。Noh等提出了一个框架该框架将反卷积(deconvolution)应用于上采样低分辨率特征图。Yu和Vladlen提出了一种基于空洞卷积的架构它能够在不损失分辨率或覆盖率的情况下以指数方式扩展接受野。最近RefineNet使用了一种从粗到细的架构它利用了下行采样过程中所有可用的信息。金字塔场景解析网络(PSPNet)在多个网格尺度上执行空间池化并在多个分割基准上取得了出色的性能。

多任务学习多任务学习旨在训练模型同时完成多个任务早在深度学习时代之前就引起了人们的关注。例如之前的许多研究工作都集中在识别与分割的结合上。最近Elhoseiny等人提出了一种同时执行姿态估计和目标分类的模型。Eigen和Fergus提出了一个共同解决深度预测、表面正常估计和语义标记的架构。Teichmann等人提出了一种通过共享特征提取器执行分类、检测和语义分割的方法。Kokkinos提出了UberNet这是一个深度架构能够依靠不同的训练集完成7个不同的任务。最近的另一项工作提出了一个部分监督训练范式仅使用框标注将对象的分割扩展到3000个对象。将我们的工作与以前关于多任务学习的工作进行比较只有少数工作在异构数据集上执行多任务学习也就是说一个数据集不一定对所有任务具有所有级别的标注。一些任务虽然是由低到高的如边界检测、语义分割和目标检测等这些任务没有形成视觉概念的层次结构。在第4.2节中我们进一步展示了我们提出的任务和框架在从图像中发现丰富的视觉知识方面的有效性。

2、定义统一感知解析

我们将统一感知解析的任务定义为从给定的图像中识别尽可能多的视觉概念。可能的视觉概念被组织成几个层次:从场景标签、对象和对象的部分到对象的材料和纹理。这项任务取决于不同类型的训练数据的可用性。由于没有一个图像数据集在多个层次上标注了所有视觉概念我们首先通过组合多个图像标注源来构造一个图像数据集。

2.1 数据集

为了从多个层次完成广泛的视觉概念的分割我们使用了广泛和密集标记数据集(Broden)这是一个包含各种视觉概念的异构数据集。Broden统一了几个密集标记的图像数据集即ADE20K Pascal-Context Pascal-Part OpenSurfaces和可描述纹理数据集(DTD)。这些数据集包含了各种场景、物体、物体部件、材料和纹理的样本。目标、目标部分和材料被分割到像素级别而纹理和场景则在图像级别进行标注。

Broden数据集提供了广泛的视觉概念。然而由于最初收集它是为了发现视觉概念和卷积神经网络(Convolutional Neural Networks, CNN)的隐藏单元之间的对齐以获得网络可解释性我们发现来自不同类别的样本是不平衡的。因此我们将Broden数据集标准化使其更适合训练分割网络。首先我们在不同的数据集中合并相似的概念。例如将ADE20K、PascalContext和Pascal-Part中的目标和部件标注进行合并和统一。其次我们只包括在整个数据集中出现在至少50张图像中并且包含至少50,000个像素的对象类。另外出现在至少20个图像中的物体部件可以被认为是有效部件。概念上不一致的对象和部件将被手动删除。第三我们在OpenSurfaces中手动合并未采样的标签。例如石头和混凝土合并为石头而透明塑料和不透明塑料合并为塑料。出现在少于50张图片中的标签也会被过滤掉。第四我们将来自ADE20K数据集的400多个场景标签映射到来自Places数据集的365个标签。

表1显示了我们标准化Broden的一些统计数据称为Broden+。它总共包含57,095张图像包括来自ADE20K的22,210张图像来自Pascal-Context和Pascal-Part的10,103张图像来自OpenSurfaces的19142张图像和来自DTD的5,640张图像。图2显示了目标的分布以及按所属目标分组的部分。我们还在图3中提供了来自Broden+数据集的每个源的示例。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oVZxv0J6-1673920639558)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230116205957592.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-71E3FO7g-1673920639560)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230116210028935.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rnmiDWQN-1673920639561)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230116210123827.png)]

2.2 评估

为了量化模型的性能我们根据每个数据集的标注设置不同的指标。评估语义分割任务的标准指标包括像素精度(P.A.)它表示正确分类像素的比例以及平均IoU (mIoU)它表示预测结果和真实结果像素交集平衡计算所有目标。请注意由于图像中可能存在未标记的区域mIoU度量将不计算未标记区域上的预测。这将鼓励人们在训练期间排除背景标签。但不适用于部分分割等任务的评估因为对于某些目标带有部分标注的区域只占少量像素。因此我们使用mIoU但在某些任务中计算背景区域的预测记为mIoU-bg。这样在训练过程中去掉背景标签将会小幅提高P.A.。尽管如此它将显著降低mIoU-bg的性能。

对于涉及ADE20K、Pascal-Context和OpenSurfaces的目标和材料解析标注是像素级的。ADE20K和PascalContext中的图像是完全标注的不属于任何预定义类的区域被分类到未标记类中。OpenSurfaces中的图像是部分标注的也就是说如果一个图像中出现了多个区域的材料则可能不止一个区域没有标注。我们在这两个任务中使用P.A.和mIoU指标。

由于上述原因对于目标部件我们使用P.A.和mIoU-bg指标。每个部分的IOU首先在一个对象类别中求平均值然后在所有对象类别中求平均值。对于场景和纹理分类我们报告top-1的精度。评估指标如表1所示。

为了平衡不同类别中不同标签的样本我们首先随机抽取10%的原始图像作为验证集。然后我们从训练集和验证集中随机选择一张图像并在交换这两张图像后检查像素级的标注是否更均衡地接近10%。这个过程是迭代执行的。数据集被分成51,617张用于训练的图像和5,478张用于验证的图像。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-E80YEtG2-1673920639561)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230116210928107.png)]

3、统一感知解析框架的设计

我们在图4中展示了我们的网络设计称为UPerNet(统一感知解析网络)是一种基于特征金字塔网络(FPN)。FPN是一种通用的特征提取器它利用固有的金字塔层次结构中的多层次特征表示。它使用带有横向连接的自顶向下架构以极小的额外成本将高级语义信息融合到中低端。为了克服Zhou等人提出的问题尽管深度CNN的理论感受野足够大但深度CNN的经验感受野相对要小得多我们将PSPNet中的金字塔池化模块(PPM)应用于骨干网络的最后一层然后将其馈送到FPN的自上而下分支中。通过实证研究我们发现该方法能够带来有效的全局先验表示与FPN体系结构高度兼容。关于FPN和PPM的更多细节请参阅相关论文。

使用新的框架我们能够训练一个单一的网络该网络能够在多个级别上统一视觉属性的解析。我们的网络是基于残差网络进行设计。

我们将ResNet中每个阶段最后的特征图集合表示为{C2, C3, C4, C5} FPN输出的特征图集合表示为{P2, P3, P4, P5}其中P5也是直接在PPM之后的特征图。下采样率分别为{4,8,16,32}。场景标签是在图像级标注的最高级别属性通过P5的全局平均池化和线性分类器来预测。值得注意的是与基于空洞卷积的框架不同P5的下采样率比较大使得全局平均池化后的特征更加关注高级语义。对于对象标签我们经验地发现融合FPN的所有特征图比只使用最高分辨率的特征图(P2)更好。目标部分基于与目标相同的特征映射进行分段。对于材料直观地说如果我们事先知道这些区域属于“杯子”这个物体我们就可以合理地推测它可能是由纸或塑料构成的。这个上下文内容是有用的但我们仍然需要局部表观特征来决定哪一个是正确的。还应该注意的是一个物体可以由各种材料组成。基于上述观察我们在P2之上分割材料而不是融合特征。纹理标签是在图像级别上给出的它基于非自然图像。直接将这些图像与其他自然图像进行融合不利于其他任务的完成。同时我们也希望该网络能够在像素级上预测纹理标签。为了实现这样的目标我们在C2的顶部附加了几个卷积层并迫使网络在每个像素处预测纹理标签。该分支的梯度被阻止反向传播到骨干网络纹理的训练图像被调整为较小的大小(~ 64 × 64)。这些设计背后的原因是:1)纹理是最低层次的感知属性因此它纯粹是基于明显的特征不需要任何高级信息。2)正确预测纹理的基本特征是在其他任务的训练中隐式学习的。3)该分支的感受野需要足够小这样当正常尺度的图像输入网络时网络能够预测不同区域的不同标签。我们只在整个网络完成其他任务的训练后对纹理分支进行几个epoch的微调。

当只对目标监督进行训练时如果没有进一步的增强我们的框架产生的性能几乎与最先进的PSPNet相同而在相同的epoch数量下只需要63%的训练时间。值得注意的是根据他们论文中的实验除了尺度抖动外我们甚至没有在PSPNet中使用深度监督或数据增强。消融实验在第4.1节中提供。

3.1 实施细节

每个分类器之前都有一个单独的卷积头。为了融合具有不同尺度(如{P2, P3, P4, P5})的层我们通过双线性插值将它们调整为P2的大小并连接这些层。然后应用卷积层来融合来自不同层次的特征以及减少通道维度。所有额外的非分类卷积层包括在FPN中带有512通道输出的有批归一化(batch normalization)。批归一化后应用ReLU。我们使用“poly”学习率策略其中当前迭代的学习率等于初始学习率乘以 ( 1 − i t e r m a x − i t e r ) p o w e r (1-\frac{iter}{max-iter})^{power} (1maxiteriter)power。初始学习率和power分别设置为0.02和0.9。我们使用的权重衰减为0.0001动量为0.9。在训练过程中输入图像调整大小使其较短边的长度从{300,375,450,525,600}中随机选择。对于推理我们没有应用多尺度测试来进行公平的比较长度设置为450。为避免GPU内存溢出将长边的最大长度设置为1200。在ImageNet上预训练权值初始化骨干网中的各层。

在每次迭代过程中如果一个小批处理是由来自多个来源的不同任务的图像组成的那么相对于某个任务的梯度可能是有噪声的因为每个任务的实际批处理大小实际上是减小的。因此我们在每次迭代中根据每个数据源的规模随机抽取一个数据源只更新路径来推断与所选数据源相关的概念。对于物品和材料我们不计算未标记面积的损失。对于部分如第2.2节所述我们添加了background作为有效标签。同样部分的损失只适用于其超对象的区域内。

由于物理内存的限制每个GPU上的mini-batch处理只涉及2个图像。我们采用跨8个GPU的同步SGD训练。值得注意的是batch size已被证明对分类、语义分割和目标检测等任务的精确统计数据非常重要。我们实现了batch normalization这样它就能够跨多个GPU同步。在训练过程中我们不固定任何batch normalization层。仅ADE20k(包含~ 20k张图像)的训练迭代次数就为100k。如果在更大的数据集上训练我们会根据数据集中的图像数量线性增加训练迭代。

3.2 设计讨论

最先进的分割网络主要基于全卷积网络。由于缺乏足够的训练样本分割网络通常由预先训练的网络初始化用于图像分类。为了实现语义分割的高分辨率预测已经提出了空洞卷积技术该技术去除卷积层的步长并在卷积滤波器的每个位置之间添加孔以缓解下采样的副作用同时保持感受野的扩展率。空洞卷积已成为语义分割的实际范式。

我们认为这样的框架对于所提议的统一感知解析任务有很大的缺点。首先是最近提出的深度CNN它成功地完成了图像分类和语义分割等任务通常有数十或数百层。这些深度CNN的设计非常复杂为了获得更大的感受野和更轻的计算量在网络的早期阶段下采样率迅速增长。例如在总共有100个卷积层的ResNet中Res-4和Res-5 Block加起来有78个卷积层下采样率分别为16和32。在实际应用中在空洞型分割框架中需要对两个块进行空洞卷积以确保所有特征图的最大下采样率不超过8。然而由于两个块内的特征映射增加到指定大小的4或16倍计算复杂性和GPU内存占用都大大增加。第二个缺点是这样的框架只利用了网络中最深的特征映射。先前的工作已经展示了网络中特征的层次性即较低的层倾向于捕获局部特征如角落或边缘/颜色连接而较高的层倾向于捕获更复杂的模式如某些对象的部分。使用具有最高层次语义的特征来分割对象等高级概念可能是合理的但它自然不适合分割多个层次的感知属性特别是纹理和材料等低层次的感知属性。在接下来的内容中我们展示了我们的UPerNet的有效性和效率。

4、实验

实验部分组织如下:在4.1节我们首先介绍了定量研究在我们提出的框架上及进行原始语义分割任务和UPP任务。然后我们应用该框架在第4.2节中发现场景理解背后的视觉常识知识。

4.1 主要的结果

总体架构为了证明我们提出的架构在语义分割上的有效性我们在表2中报告了在不同设置下使用目标标注在ADE20K上训练的结果。一般来说FPN表现出具有竞争力的性能同时需要更少的计算资源进行语义分割。使用特征图仅向上采样一次下采样率为16 (P4)它达到mIoU和P.A.为34.46/76.04几乎与PSPNet中展示的强baseline参考相同而在相同次数的迭代中只需要大约1/3的训练时间。分辨率越高性能越好。添加金字塔池化模块(PPM)将性能提高了4.87/3.09这表明FPN也存在感受野不足的问题。根据经验我们发现融合来自所有级别FPN的特征可以产生最佳性能在其他工作中也观察到一致的结论。

FPN的性能令人惊讶考虑到它的简单性特征映射只是通过双线性插值向上采样而不是耗时的反卷积(deconvolution)并且自顶向下路径与自底向上路径通过1x1卷积层融合然后是元素和没有任何复杂的细化模块。正是简单成就了它的效率。因此我们采用统一感知解析的这种设计。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ojfg2KgQ-1673920639562)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230117093312735.png)]

异构标注的多任务学习我们报告了在单独或融合不同标注集上训练的结果。目标解析的基线是在ADE20K和Pascal-Context上训练的模型。mIoU和P.A.分别为24.72/78.03。与ADE20K的结果相比这个结果相对较低因为Broden+有更多的目标类。材料的基线是在OpenSurfaces上训练的模型。得到mIoU和P.A.为52.78/84.32。目标解析和部件解析联合训练的结果是对象解析23.92/77.48部件解析30.21/48.30。训练对象解析加上部分标注的性能与只训练目标标注的性能几乎相同。在添加场景预测分支后它在场景分类上产生了71.35%的顶级精度而目标和部分性能的下降可以忽略不计。将材料与目标、部件、场景分类联合训练材料解析的得分为54.19/84.45目标解析的得分为23.36/77.09部件解析的得分为28.75/46.92。值得注意的是由于非均匀性在OpenSurfaces数据集上目标和部件的性能都略有下降而材料的性能与仅训练的相比有所提高。我们推测这是由于目标中的信息作为材料解析的先验的有用性。如上所述我们发现直接将纹理图像与其他自然图像融合对其他任务是有害的因为图像在DTD中与自然图像之间存在着重大差异。在使用所有其他任务训练的模型对纹理图像进行微调后我们可以通过选择频率最高的像素级预测作为图像级预测来获得定量的纹理分类结果。它的分类准确率为35.10。在纹理上的性能表明只对纹理标签上的网络进行微调并不是最优的。然而这是克服自然数据源和合成数据源融合的必要步骤。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-G6HwzKDA-1673920639563)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230117093350856.png)]

我们希望未来的研究能够发现更好地利用这种图像级标注进行像素级预测的方法。

定性的结果。我们提供了UPerNet的定性结果如图5所示。UPerNet能够统一组合视觉知识同时有效地预测分层输出。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BFP4dHDM-1673920639563)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230117094922909.png)]

4.2 在自然场景中发现视觉知识

统一感知解析需要一个能够从给定图像中识别尽可能多的视觉概念的模型。如果一个模型成功地实现了这一目标它可以发现现实世界背后丰富的视觉知识比如回答诸如“客厅和卧室之间有什么共同点?”或“杯子是用什么材料做的?”在自然场景中发现甚至推理视觉知识将使未来的视觉系统更好地理解周围环境。在本节中我们将演示在Broden+上训练的框架能够在多个层次上发现组合视觉知识。这也是异构数据标注训练网络的特殊应用。我们使用place -365的验证集其中包含来自365个场景的36500张图像作为我们的测试平台因为place数据集包含来自各种场景的图像更接近真实世界。我们以层次的方式定义了几种关系。请注意只有object-part关系可以直接从基本真实标注中读出其他类型的关系只能从网络预测中提取。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kmvw4eRM-1673920639564)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230117094956569.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-75FjZ5GT-1673920639565)(Unified Perceptual Parsing for Scene Understanding.assets/image-20230117095433772-16739204746681.png)]

5、总结

这项工作研究了统一感知解析的任务该任务旨在跨场景类别、目标、部件、材料和图像纹理分析视觉概念。开发了异构标注处理的多任务网络和训练策略并进行了基准测试。我们进一步利用训练过的网络来发现场景之间的视觉知识。

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

“UPerNet:Unified Perceptual Parsing for Scene Understanding论文解读” 的相关文章