2020年欧洲计算机视觉会议(ECCV)于8月23日至28日在线举行。本次会议共接收1360篇论文,包括104场orals,160场spotlights以及1096篇posters,共进行有45场workshops和16场tutorials。就像其他ML和CV会议一样,大量论文无法完全了解。因此就本次会议,进行了类似CVPR2020post的总结,以便读者可以从中了解会议总体趋势。因此,本文会对这次会议进行概括,并列出一些我觉得有趣、重要的论文。
会议所有收录论文:
部分成果展示以及Youtube播放列表
每篇论文的一句话介绍:
ECCV网站:
(整体统计概况)
(识别,检测,分割及姿势评估)
Semi-Supervised,Unsupervised,Transfer,Representation&Few-ShotLearning(半监督学习,无监督学习,迁移学习,表示学习,少样本学习)
(3D计算机视觉&机器人学)
(图像和视频合成)
(视觉与语言)
(其他)
整体统计概况
本节中提供的统计数据摘自官方的Opening&Awards演示文稿。
可以看到,与2018年会议相比,论文提交量增加了超过一倍,与CVPR2020的论文数量相当。随之相应,审稿人数和涉及领域也相应增加。
对研究机构进行统计,其结果与今年的ICML相似:排名第一的Google有180位作者,其次是香港中文大学的140位作者,第三是北京大学的110位作者。
后续章节我们将基于研究主题简要介绍一些论文。
识别,检测,分割以及姿态估计
End-to-EndObjectDetectionwithtransformers
DETR是基于编码-解码的Transformer结构构造的。整个模型包含三大组件:卷积神经网络特征提取器,编码器,以及解码器。一张给定图像会先经过特征提取器以获取图像特征。接着,使用不同频率的sin函数生成的位置编码信息会加到图像特征上以维护图像的二维结构信息。得到的新特征会经过Transformer的编码器来整合特征信息并将不同的目标分开来。到了解码阶段,目标查询向量会与编码向量一同经过解码器并产生最终的输出特征向量。这些查询向量是一组固定的可学习的嵌入向量(embedding),刚开始随机初始化,在训练过程中进行优化,评测阶段则保持不变,而查询向量的数量也决定了该检测器能够检测的目标数量上界。最终,输出的特征向量会经过一个共享的全连接层来预测每个查询对应的类别与边界框。为了计算损失并训练该模型,作者使用了匈牙利算法将输出与标注一一匹配。
MutualNet:AdaptiveConvnetviaMutualLearningfromNetworkWidthandResolution
传统神经网络只有在计算资源足够的情况下才能够使用,如果计算资源无法满足,模型就无法使用。然而,这就使得实际应用中模型的使用颇为受限。比方说,如果模型要在手机上进行前向推理,计算资源会随手机负载以及电量而变化。一个简单的解决方案就是在设备端保存多个不同大小尺寸的模型,并在不同计算资源情况下使用对应的模型。但是如此一来就会占据大量内存空间,并且也无法做到适用于不同的计算资源。近期类似于S-Net与US-Net的网络在训练期间采样不同大小的子网络,使得网络在部署阶段可以调整为不同的网络宽度(也就是通道数量)。但是在非常有限的计算资源下,这类网络的性能显著下降。
这篇论文则借助于不同尺寸的网络与输入图像,以寻求准确度与计算效率的平衡。如上图所示,在一次训练迭代过程中,会采样四个子网络,其中一个是完整的网络,还有三个具有不同宽度的子网络。完整的网络使用原始大小的图像数据与标签进行交叉熵损失训练,其余三个则随机输入不同尺度的图像(原始图像或是尺度下采样后的图像),并使用他们的输出与完整网络的输出之间的KL散度进行监督训练(也就是蒸馏损失)。这样一来,每个子网络就能够学会适应不同网络尺寸与输入大小的多尺度表达。在部署过程中,对于一个给定的资源约束场景,即可选择最优的网络尺寸与输入大小组合用于推理。
GradientCentralization:ANewOptimizationTechniqueforDeepNeuralNetworks
在神经网络优化过程中使用类似于均值与方差这样的二阶统计数据来对网络激活值或是权重做形式标准化已然成为神经网络训练过程中极为重要的一环,例如常用的BatchNorm和weightnorm。相较于使用额外的归一化模块作用于激活值或是权重,梯度中心化(GradientCentralization,简称GC)直接作用于梯度,使得梯度向量的均值为0,该操作可以平滑并加速神经网络的训练过程,甚至提升模型的泛化性能。
给定计算得到的梯度,GC首先如上图所示计算梯度向量的均值,接着减去对应的均值。数学形式上,对于一个权重向量Wi,其对应的梯度为Wi(i=1,2,…,N),则GC操作可定义为:
Smooth-AP:SmoothingthePathTowardsLarge-ScaleImageRetrieval
图像检索旨在一个图像集合中检索与查询图像相同类别的图像数据。与分类任务不同,图像检索任务中,测试图像的类别在训练过程中都已经见到过了,测试图像的类别可能会很少见,但是我们仍需在图像集合中找到与之相似的图像,这也就是一个开集问题。图像检索的一般流程包括使用CNN特征提取器对检索图像、以及整个图像集合提取其各自的嵌入向量,接着计算两两之间的余弦相似度,最后根据相似度进行排序。特征提取器的训练目标就是要达到良好的排序效果(即属于同一类别的图像相似度应尽可能高)。而网络的性能则是使用AveragePrecision(AP)来度量的,该指标计算每个正确检索结果的名次与其在整个图像集合中的名次之比并对其求和。计算一张给定图像的名次需要应用一个阈值化操作,该操作用到了海维赛德阶跃函数,使得其不可微分,所以我们无法直接使用最终排名来端到端地优化模型。
为了解决这个问题,论文作者们提出了使用一个温度参数控制的sigmoid函数来代替海维赛德阶跃函数,使得排序可微,并可作为损失函数来端到端地优化网络模型。相较于三元组损失函数,smooth-AP损失函数优化的是一个排序损失,而三元组损失则是在间接地进行优化。
HybridModelsforOpenSetRecognition
现有的图像分类方法往往基于闭集假设,也就是说,训练集中涵盖了测试阶段可能出现的所有类别。但是这种假设很明显不现实,哪怕是像ImageNet这样拥有1000类物品的大规模数据集,也不可能包含现实世界中所有可能的类别。如此一来,自然地出现了开集分类,其试图通过假设测试阶段包含见过的以及没有见过的类别来解决这个问题。
在这篇论文中,作者们使用流模型来解决这个开集分类问题。流方法通过最大似然估计,以一种无监督训练的方式拟合训练样本的概率分布。因此,流模型可以用于估计每个样本的概率密度。当输入样本的概率密度很大的时候,那么其很有可能是一个已知样本,而离群点的概率密度则较小。之前的研究方法都是基于流模型搭建一个分类器,而该论文的作者们让分类器和流模型学习一个联合嵌入向量,因为仅仅由流模型学到的嵌入向量很可能不具有充足的判别特征,使得分类效果很差。如上图所示,在训练期间,图像会由一个编码器网络映射为一个隐特征,接着这个编码特征会同时被送入分类器与流模型中,分类器端使用交叉熵损失进行监督,流模型端则负责概率密度估计。整个网络架构是可端到端训练的。在测试阶段,每张图像的logP(x)都会由前传得到,并与训练集样本的最低logP(x)进行比较。如果其值大于该阈值,则送入分类器判断其具体类别,否则就视为未见过的样本。
ConditionalConvolutionsforInstanceSegmentation
在本篇论文中,作者们提出了使用语义分割网络中的FCN来进行实例分割。为了进行有效的实例分割,FCN需要两种信息,一是表观信息用于目标分类,二是位置信息用于区分同一类别的不同目标。该论文提出的网络结构名为CondInst(用于实例分割的条件卷积),是基于CondConv以及HyperNetworks构建而成的。对于每个实例,一个子网络会根绝每个实例所在的中心区域生成掩膜FCN头网络的权重,用于预估给定实例的掩膜。具体来收,如上图所示,该网络中,在特征图的多个不同尺度下包含多个掩膜头。每个头网络在预定义的位置处预测给定实例的类别,并生成掩膜FCN头网络的权重。接着,就由各个头网络使用对应的参数进行掩膜预估。
MultitaskLearningStrengthensAdversarialRobustness
深度神经网络的一大主要缺陷就在于它们对于对抗攻击来说异常脆弱,在输入图像中引入极为微小且不可见的扰动就会导致完全错误的输出,甚至输入的表观肉眼看来几乎完全一致。近些年,研究人员已从多个层面深入探讨神经网络的对抗鲁棒性,从输入数据(例如使用无标签数据以及对抗训练)到模型本身,但是网络模型的输出还未被用于提升模型鲁棒性。在这篇论文中,作者们研究了拥有多个输出的多任务学习模型在对抗鲁棒性上的效果。鉴于越来越多的机器学习应用需要模型能够同时一次性完成多个任务,这样的设置在实际任务中是有用的。
DynamicGroupConvolutionforAcceleratingConvolutionalNeuralNetworks
DisentangledNon-localNeuralNetworks
Non-local模块使用注意力机制,对长距离像素之间的依存关系进行建模,并已经广泛应用于诸多计算机视觉任务,例如目标检测、语义分割以及视频动作识别。
在本篇论文中,作者们试图进一步解析non-local模块,发现其局限性,并提出了一个升级版本。首先,作者们将像素i(也就是所谓的key像素)与像素j(也就是所谓的query像素)之间的相似度计算为两项之和,其中一项是成对项,形式上就是一个白化后的点积结果,描述了query像素与key像素之间的关系,另一项则是一个一元项,表征了给定的key像素对哪个query像素影响最大。接着,为了搞清楚每一项的作用,他们分别只用其中一项进行训练,并发现成对项负责类别信息,一元项负责边界信息。然而,通过对non-local模块的梯度进行分析,作者们发现当上述两项结合起来应用于注意力操作时,他们的梯度相乘了。这也就导致,如果其中一项的梯度为0,那么另一个项不为0的梯度对网络的训练也起不到作用了。为了解决这个问题,作者们提出了一个non-local模块的分解版,使得这两项能够分开来优化。
Hardnegativeexamplesarehard,butuseful
深度度量学习旨在优化一个嵌入函数,使得经过该函数映射后语义相似的图像会处在高维空间中相对较近的位置,而语义不相似的图像则使其映射后的距离较远。一种较为常用的学习该映射的方法是根据图像的三元组定义一个损失函数,这个三元组包含一张锚图像,一张与锚图像同一类别的正样本图像,以及一张与锚图像不同类别的负样本图像。接着,在优化过程中,模型会在锚图像与负样本图像的距离小于锚图像与正样本图像的距离时给予惩罚。然而,在优化期间,大多数候选三元组都已然达到了标准,即锚图像与正样本的距离小于其与负样本的距离,这也就使得这些三元组对训练几乎起不到太大作用,很冗余。另一方面,使用最困难的负样本进行优化又会导致在训练初期陷入局部最优。这是由于在这种情况下,根据余弦相似度(即归一化特征向量的点积结果)计算得到的锚-负样本的相似度比锚-正样本的相似度大很多。
作者们展示了三元组损失的标准实现中使用困难样本挖掘的问题所在。具体来说,(1)在梯度计算中,如果归一化不被考虑的话,大部分梯度会丢失掉;(2)如果两张不同类别的图像在嵌入空间中的距离非常接近,那么损失的梯度很可能将其拉得更近而非将其分得更开。为了解决这个问题,作者们不再像原始三元组损失那样尽可能地将锚-正样本对拉得更近以便将其更加紧密地聚类,相反,作者们会避开更新锚-正样本对的损失梯度,也就使得某一类的实例构成的聚类不会过于紧致。这个方法仅仅集中于直接将困难负样本拉离锚图像。
VolumetricTransformerNetworks
卷积神经网络(CNN)成功的一个关键因素就在于其学习语义目标各个部件判别性特征表达的能力。然而,CNN仍旧缺乏处理不同空间变换的能力,例如尺度、视点以及类内变化。近期的一些方法,例如spatialtransformernetworks(STNs)试图通过先对空间分布不同的特征图变形,使其变为标准形式来抑制图像的空间变换,接着,再对这些标准化后的特征做分类。但是这样的方法对所有的特征通道做相同的变形操作,却没有考虑到各个特征通道会表征不同的语义组件,将其变换为标准形式也就需要不同的空间变换操作。
为了解决这个问题,该篇论文引入了Volumetrictransformernetwork(VTN),如上图所示,一个可学习的模块会对每个通道的每个像素位置预测一个形变变换,用于将中间的CNN特征变换为一个空间位置无关的标准形式。VTN是一个编码器-解码器结构的网络,其中的网络模块用于在不同的特征图通道之间传递信息,以估计不同语义组件之间的依赖关系。
FasterAutoAugment:LearningAugmentationStrategiesUsingBackpropagation
数据增广(DA)已然变成了深度学习方法中极为重要且不可或缺的一部分,而近期的一些研究工作表明搜索算法得到的数据增广策略优于标准的增强增广方法。这类算法预先定义好所有可能的数据变换集合,比如几何变换(如旋转)或是色彩增强变换(如负感化),旨在找到最优的数据增广参数,比如增广的幅度、数据增广的概率以及不同数据增广手段的组合数量,如下方左图所示。最优策略是由一个双优化循环学习得到的,以便使得一个使用给定策略训练的卷积神经网络的验证误差最小。然而,这样的优化方法颇具弊端,可能的数据增广策略搜索空间过于庞大,需要复杂的搜索方法,而且单次数据增广策略的优化就需要网络做完整训练。为了解决这个问题,这篇论文的作者提出了使用基于梯度优化的原始图像与增广图像密度匹配优化策略。
通过将数据增广视作一种填充原始数据缺失点的方法,该算法的目标是利用对抗学习来最小化增广数据的和原始数据之间的分布距离。为了能够学习最优的增广策略,数据增广流程需要对增广参数可微。对于使用给定增广方法的概率,作者们使用一个由伯努利分布采样得到的随机变量来表示,并使用Gumbeltrick进行优化,增广的强度通过直接估计来近似,增广方法的组合则使用one-hot向量的组合来学习。
其他论文
Metriclearning:cross-entropyvs.pairwiselosses
SemanticFlowforFastandAccurateSceneParsing
Object-ContextualRepresentationsforSemanticSegmentation
LearningFromMultipleExperts:Self-pacedKnowledgeDistillationforLong-tailedClassification
FeatureNormalizedKnowledgeDistillationforImageClassification
MixupNetworksforSampleInterpolationviaCooperativeBarycenterLearning
OnlineAugment:OnlineDataAugmentationwithLessDomainKnowledge
Distribution-BalancedLossforMulti-LabelClassificationinLong-TailedDatasets
DiVA:DiverseVisualFeatureAggregationforDeepMetricLearning
EstimatingPeopleFlowstoBetterCountTheminCrowdedScenes
SoundSpaces:Audio-VisualNavigationin3DEnvironments
SpatiallyAdaptiveInferencewithStochasticFeatureSamplingandInterpolation
DADA:DifferentiableAutomaticDataAugmentation
URIE:UniversalImageEnhancementforVisualRecognitionintheWild
BorderDet:BorderFeatureforDenseObjectDetection
TIDE:AGeneralToolboxforUnderstandingErrorsinObjectDetection
AABO:AdaptiveAnchorBoxOptimizationforObjectDetectionviaBayesianSub-sampling
PIoULoss:TowardsAccurateOrientedObjectDetectioninComplexEnvironments
LearningObjectDepthfromCameraMotionandVideoObjectSegmentation
AttentiveNormalization
MomentumBatchNormalizationforDeepLearningwithSmallBatchSize
ASimpleWaytoMakeNeuralNetworksRobustAgainstDiverseImageCorruptions
半监督学习,无监督学习,迁移学习,表征学习以及小样本学习
BigTransfer(Bit):GeneralVisualRepresentation
在预训练(上游)阶段,BiT包含以下几点:
对于非常庞大的数据集,由于BatchNormalization(BN)含有训练集的统计数据,使得测试阶段存在训练/测试不一致的问题,训练损失虽然被正确回传并优化,然而验证损失则很不稳定。同时,BN对批量大小很敏感。为了解决这个问题,BiT转而使用GroupNorm以及WeightNorm。
像ResNet50这样的小模型并不会从大规模数据集上获益,因此模型需要与数据集的大小匹配。
对于(下游)目标任务,BiT提出以下几点:
使用SGD优化器,无需层冻结、dropout、L2正则化或任何梯度适应。别忘了把最后的预测层的权重初始化为0。
无需将所有输入缩放为同一大小,如224。在训练期间,输入图像会随机缩放并剪切为一个正方形,并随机水平翻转。在测试阶段,图像则会放缩为同一固定大小。
尽管对于数据量充足的大规模数据集预训练来说,mixup并没有多大用处,但是BiT发现mixup正则化对下游任务里中等大小的数据集训练非常有用。
LearningVisualRepresentationswithCaptionAnnotations
在大规模标注数据集上训练深度模型不仅能够让手头的任务获得优良表现,也能使得模型学到对于下游任务非常有用的特征表达。然而,我们是否可以在不使用如此昂贵且细粒度的标注数据的情况下获得类似的特征表达能力呢?本篇论文研究了使用带噪声标注(在本篇论文中是图像的文字说明)进行弱监督预训练。
目标是用有限对图像与说明文字来学习视觉表达,那么如何制定训练目标,来使得图像和它们的说明文字之间产生有效的联系呢?参考BERT模型随机掩盖15%的输入字符,让模型根据transformer模型的编码器输出重建整个句子,该方法也随机对图像的文字说明进行掩码操作。其提出的方法称作image-conditionedmaskedlanguagemodeling(ICMLM),其中图像信息用于重建被掩码的字符以及对应的说明文字。为了达到这个目的,作者们提出了两个多模结构,(1)ICMLMtfm,使用一个卷积神经网络对原始图像进行编码得到图像特征,接着,经过BERT处理的被掩码的图像说明、原始图像说明以及图像特征被级联起来并通过一个transformer编码器,最终输出一个多模嵌入特征用于预估被掩码的字符。(2)ICMLMatt+fc,先计算图像说明与图像之间的相似度,接着经过一个成对注意力模块来整合图像与文字说明之间的信息。得到的特征会经过池化后再过一个全连接层来预测被掩码的字符。
Memory-augmentedDensePredictiveCodingforVideoRepresentationLearning
本文将对比学习与存储模块结合使用,以解决未来帧的预测问题。为了减少不确定性,该模型会在特征级别上预测未来,并使用对比损失进行训练以避免过度约束。为了处理多种假设,一个存储模块用于同时推断多个未来状态。给定一组连续帧,2d-3dCNN编码器(即f)产生上下文特征,而GRU(即g)整合所有过去的信息,将其用于从共享存储模块中选择插槽。接着,将所选存储插槽的凸组合构成预测的未来状态。然后,使用对比损失将预测的未来状态与未来状态的真实特征向量进行比较。对于下游任务,将g产生的特征池化,然后送给分类器处理。
SCAN:LearningtoClassifyImageswithoutLabels
要将未标记的输入图像分组为语义上有意义的聚类,我们要做到仅使用视觉相似性来解决该问题。先前的工作要么是(1)使用自监督的方法学习丰富的特征,然后对特征应用K-means来聚类,但这很容易导致性能退化,或者就是(2)端到端的聚类方法,这些方法要么利用CNN进行深度聚类,要么基于互信息最大化。但是,生成的聚类结果在很大程度上取决于初始化,并且很可能会被低级特征主导。
为了解决先前工作中发现的问题,本文提出了包含两大步骤的SCAN(采用最近邻方法的语义聚类)。第一步,通过前置任务学习特征表示,然后生成初始聚类,SCAN基于特征相似度而不是应用K-means来挖掘每个图像的最近邻。第二步,将语义上有意义的最近邻用作先验,以训练模型将每个图像及其对应的邻居分为一类。模型通过损失函数来优化,该函数会在softmax之后最大化输出向量的点积,从而迫使网络产生一致且有判别度的(one-hot向量)预测。
GATCluster:Self-SupervisedGaussian-AttentionNetworkforImageClustering
聚类是根据样本相似度将数据进行集群划分。传统的方法使用手工特征和特定领域的距离函数来度量相似度,但这种手工特征的表现非常有限。随后的工作将深度表示和聚类算法结合起来,但是当输入数据很复杂时,深度聚类的性能仍然会受到影响。一个有效的聚类,在特征层面必须同时包含高层判别性特征并获取对象语义信息。在聚类步骤上,必须避免使用将样本分配到单个或少数几个集群的算法,并且聚类需要高效地应用于大尺寸图像。
本文提出了GATCluster,它不需要进一步的后处理就可以直接输出语义聚类标签,其中学习到的特征是一个one-hot编码向量,以避免弱解。在平移不变性、可分离性最大化、熵分析和注意力映射约束下,GATCluster采用四种自学习任务进行无监督训练。
AssociativeAlignmentforFew-shotImageClassification
小样本图像分类的目标是在训练样本很少的情况下,生成一个能够学习识别新的图像类的模型。一种流行的方法是元学习,它从包含基本类别的大量标记数据中提取公共知识,并用于训练模型。在之后训练该模型时仅用几个样本就可以从新的概念中对图像进行分类。元目标是找到一组好的初始权重集合,这些权重在训练学习新的概念时迅速收敛。有趣的是,最近的研究表明,不使用元学习的标准迁移学习——特征提取器首先在基本类别上进行预训练,然后在新的几个类别上对预训练网络进行微调,其性能与更复杂的元学习策略不相上下。然而,在微调过程中,为了避免过拟合,特征提取器对部分层的权重冻结会阻碍性能。
本文提出了一个含有两个步骤的方法来解决这个问题。第一步,利用特征提取器为新样本生成特征。然后在嵌入空间中使用相似性度量将每个样本的特征映射到其中一个基类。第二步是关联对齐,其中特征提取器被微调,使得新图像的嵌入向量更接近其对应的基础图像的嵌入向量。这既可以通过中心对齐来完成的,其中每个基类的中心和新类别之间的距离减小,也可以使用对抗性对齐,其中鉴别器迫使特征提取器在嵌入空间中对齐基础图像和新样本。
DomainAdaptationthroughTaskDistillation
AreLabelsNecessaryforNeuralArchitectureSearch
TheHessianPenalty:AWeakPriorforUnsupervisedDisentanglement
Cross-DomainCascadedDeepTranslation
Self-ChallengingImprovesCross-DomainGeneralization
LabelPropagationwithAugmentedAnchorsforUDA
RegularizationwithLatentSpaceVirtualAdversarialTraining
TransportingLabelsviaHierarchicalOptimalTransportforSemi-SupervisedLearning
NegativeMarginMatters:UnderstandingMargininFew-shotClassification
RethinkingFew-ShotImageClassification:aGoodEmbeddingIsAllYouNeed
PrototypeRectificationforFew-ShotLearning
三维计算机视觉以及机器人学
NeRF:RepresentingScenesasNeuralRadianceFieldsforViewSynthesis
从2D图像合成3D视图是一个具有挑战性的问题,尤其是在稀疏地采样了输入2D图像的情况下。该任务先拍摄3D场景的2D图像集合(具有可选的相机姿势及其内参),接着用这些数据训练一个模型,然后使用训练后的模型,我们就可以渲染3D场景中未拍摄过的新2D视图。一种成功的方法是基于体素的表示法,该表示方法使用离散的网格表示3D场景。使用3DCNN可以预测3D体素中对应的RGB-alpha网格值。但是,由于这种基于体素的方法复杂度与空间分辨率成三次比,难以优化并且无法平滑地对场景表面进行参数化,因此它们的存储效率不高。计算机视觉社区的最新趋势是使用全连接神经网络将给定的3D场景表示为连续函数。因此,神经网络本身就是3D场景的压缩表示,使用2D图像集对其进行训练,然后用于渲染新的视图。但是,现有方法仍无法与基于体素的方法相匹敌。
NeRF(neuralradiancefields)使用9层和256个通道的全连接网络将场景表示为连续的5D函数,其输入是单个连续5D坐标,即3D空间位置(x,y,z)和视角方向(θ,),其输出为RGB颜色和不透明度(输出密度)。为了合成给定的视图,渲染过程包括沿相机光心所在直线查询5D坐标,并使用经典的体素渲染技术将输出的颜色和密度投影到图像中。由于体素渲染是可以可微分的,因此优化表示所需的唯一输入就是已知影机姿势参数的一组图像。这样,NeRF能够有效地优化,以渲染具有复杂几何形状和外观的场景的逼真视图,并且在渲染图像和真实图像之间具有简单的重建损失,论文证明其结果优于先前的神经渲染和视图合成研究工作。
TowardsStreamingPerception
TeachingCamerastoFeel:EstimatingTactilePhysicalPropertiesofSurfacesFromImages
人在很小的时候就能够形成一个心理模型,基于与不同物品互动时的体验,将对物体的感知与其对应的触觉进行映射。当与新对象交互时,具有这种心理模型的自主智能体会是一个非常有价值的工具,特别是当一个简单的对象类别没有足够的信息来准确估计其触觉物理特性时。
为了更直接地模拟这样一个心理模型,本文提出的模型会直接估计物体的物理属性,使得物体的属性数据可被直接利用。首先,作者构建了一个表面图像序列和触觉特性测量数据集(数据集大小400+)。之所以对单个目标构建图像序列,是由于在估计表面特性时,人们常常无意识地移动头部来获取表面的多个视图,因此捕捉到的图像序列包含每个材料表面多个视角得到的图像。然后,他们提出了一个跨模态的框架来学习视觉线索到触觉特性的复杂映射。该模型的训练目标是在给定视觉信息的情况下,生成精确的触觉特性估计值。视觉和触觉信息通过各自单独的编码器网络嵌入到共享的隐空间中。然后,生成器网络从嵌入视觉矢量中估计触觉特性值。鉴别器网络学习预测触觉-视觉对是真实的还是合成的。在推理过程中,使用编码器-生成器对来推断输入图像的触觉特性。
ConvolutionalOccupancyNetworks(论文地址)
三维重建是计算机视觉的一个重要问题,有着广泛的应用。对于理想的三维几何图形表示,我们需要能够,a)编码复杂的几何和任意的拓扑,b)放缩到大型场景,c)封装局部和全局信息,以及d)在内存和计算方面易于处理。然而,现有的三维重建表示法并不能满足所有这些要求。尽管最近的隐式神经表示在三维重建中表现出了令人印象深刻的性能,但由于使用简单的全连接网络结构,不允许在观测值中整合局部信息或引入诸如平移等变项的归纳偏置,因此存在一定的局限性。
ConvolutionalOccupancyNetworks使用卷积编码器和隐式占用解码器来合并归纳偏差并在三维空间中实现结构化推理。从而可以对单个对象进行更细粒度的隐式三维重建,能够放缩到大型室内场景,并能很好地从合成数据推广到真实数据。
TrackingEmergesbyLookingAroundStaticScenes,withNeural3DMapping
PrivacyPreservingStructure-from-Motion
MultiviewDetectionwithFeaturePerspectiveTransformation
MotionCapturefromInternetVideos
Atlas:End-to-End3DSceneReconstructionfromPosedImages
GenerativeSparseDetectionNetworksfor3DSingle-shotObjectDetection
PointTriNet:LearnedTriangulationof3DPointSets
Points2Surf:LearningImplicitSurfacesfromPointCloudPatches
GeometricCapsuleAutoencodersfor3DPointClouds
DeepFeedbackInverseProblemSolver
SingleViewMetrologyintheWild
ShapeandViewpointwithoutKeypoints
HierarchicalKinematicHumanMeshRecovery
3DHumanShapeandPosefromaSingleLow-ResolutionImagewithSelf-SupervisedLearning
Few-ShotSingle-View3DObjectReconstructionwithCompositionalPriors
NASA:NeuralArticulatedShapeApproximation
Hand-Transformer:Non-AutoregressiveStructuredModelingfor3DHandPoseEstimation
Perceiving3DHuman-ObjectSpatialArrangementsfromaSingleImageintheWild
图像与视频合成
TransformingandProjectingImagesintoClass-conditionalGenerativeNetworks
GAN能够生成多种多样不同类别的图像。例如,BigGAN,一个类条件生成对抗网络,给定一个噪声向量z和一个类别嵌入向量c,该模型能够生成对应类别的一张新图像。然后我们就可以通过编辑噪声向量生成的隐变量以及类别嵌入向量操纵生成的图像。但这个过程可以反过来吗?也就是说,给定一张输入图像,我们能否找到与该图像最匹配的潜在变量z和类别嵌入向量c呢?这个问题仍然颇具挑战性,因为许多输入图像不能由GAN生成。另外,目标函数具有许多局部极小值,搜索算法容易陷入此类区域。
为了解决这些问题,本文提出了pix2latent算法,主要包含两大创新点:估计输入图像的尺度变换,以及使用非局部搜索算法来寻找更好的解。如上图所示,在给定输入图像的情况下,pix2potent首先找到最佳仿射变换,使得变换后的输入更可能由GAN生成,然后使用提出的BasicCMA优化方法将图像投影到隐空间中。接着对获得的隐变量进行编辑,并将其投影回图像空间,得到编辑后的图像,最后再用初始仿射变换的逆运算对其进行逆变换得到最终的生成图像。
ContrastiveLearningforUnpairedImage-to-ImageTranslation
给定两组不同属性和模式的图像对训练集,例如马和斑马的图像对,非配对图像到图像的转换的目的是学习两种图像模式之间的变换函数,例如将马转换为斑马,反之亦然,这一过程中保留了诸如姿态或大小等敏感信息而无需确保两种图像模式之间的一一匹配。现有的方法如CycleGAN迫使模型能够将转换后的图像变换回原始图像。但是这样的方法假设模型能够学到一个双射变换,这通常含有过多限制,因为一个给定的变换后的图像可能有多种样式的源图像。理想的损失应该在不同样式下保持不变,但要能够做到区分敏感信息。
ContrastiveUnpairedTranslation(CUT)就是要学习这种嵌入空间。除了标准的GAN损失,其中生成器要训练生成足够真实的转换图像,而鉴别器试图区分转换图像和真实图像。还要增加一个额外的损失,用来迫使网络对输入图像与转换图像的对应图像块生成相似的嵌入向量。该损失在优化时采用对比损失,即拉近两个对应图像块嵌入向量的距离,同时拉远给定图像块和随机抽样图像块嵌入之间的距离(只使用同一输入图像的内部区块,其他图像的区块会降低性能)。
RewritingaDeepGenerativeModel
GAN能够对数据分布中丰富的语义和物理规则进行建模,但是到目前为止,我们仍旧搞不明白这些规则是如何在网络中编码的,也无从知晓如何改变某个规则。本篇论文则引入了一个新的问题:操纵由深度生成网络模型编码的特定规则。也就是说,给定一个生成模型,其目的是调整其权重,使调整后的模型遵循新的规则,生成遵循新规则集的图像,如下图所示。
通过将网络中的每一层视为一个关联性存储器(该存储器将潜在生成规则存储为隐藏特征上的一组键值关系),我们就可以通过定义一个受到约束的优化来修改模型,这个受约束优化在关联性存储器中添加或编辑一个特定规则,同时尽可能保留模型中现有的语义关系。论文直接通过度量和操纵模型的内部结构来实现这一点,而不需要任何新的训练数据。
LearningStereofromSingleImages
给定两张对应的图像,视差匹配的目标是估计每个像素对应的位置从第一张图像的视角到第二个视角之间的每像素水平位移(即视差)。虽然全监督方法可以得到很好的结果,但是一对视察图像之间的精确真实视差往往很难获得。一种可能的替代方法是使用合成数据进行训练,然后使用有限数量的实际标记数据进行微调。但是如果没有充足的真实数据来进行微调,这样的模型在实际应用中还是无法得到很好的视差估计效果。
该文提出了一种新颖的、全自动的视差估计训练流程,通过使用图像深度估计网络,该方法可以由已知深度信息的非结构化单幅图像生成视差估计训练数据,这样就无需人工合成数据或真实视差图像对即可进行训练。首先,利用深度视差,通过前向形变操作将给定的左输入图像转换为合成的右图像。然后,利用视差图像对,对视差估计网络进行有监督的训练,从而得到一个泛化的模型。
WhatmakesfakeimagesdetectableUnderstandingpropertiesthatgeneralize
虽然GAN生成图像的质量已经达到了令人颇感惊异的水平,但是经过训练的用于检测假图像的深层网络仍然可以识别这些生成图像中的细微伪影,并且鉴别真假图像的网络还在不同数据集和不同方法训练得到的许多GAN模型中找到了相同的伪影。本文旨在可视化和理解哪些部分在各类模型之间是共有的,并且容易在不同的场景中都呈现出来并被检测出。
FreeViewSynthesis
Unselfie:TranslatingSelfiestoNeutral-posePortraitsintheWild
World-ConsistentVideo-to-VideoSynthesis
RetrieveGAN:ImageSynthesisviaDifferentiablePatchRetrieval
GeneratingVideosofZero-ShotCompositionsofActionsandObjects
AcrossScales&AcrossDimensions:TemporalSuper-ResolutionusingDeepInternalLearning
ConditionalEntropyCodingforEfficientVideoCompression
SemanticViewSynthesis
LearningCamera-AwareNoiseModels
In-DomainGANInversionforRealImageEditing
视觉与语言(V&L)
ConnectingVisionandLanguagewithLocalizedNarratives
将视觉和语言联系起来的一种常用方法是使用图像标题,其中每个图像都与人类所写的文本标题配对,但这种图像与文字的联系仅限于完整的图像尺度,其中的文本描述了整个图像。为了改进这种弱关联,有人就将图片标题的特定部分和图像中的目标框联系起来。但是,这种关联仍然非常稀疏,大多数对象和单词都没有对应的目标框,而且标注过程可能会非常昂贵耗时。
本文提出了一种新的有效的多模态图像标注形式,称之为定位叙事。定位叙述是通过要求标注者用他们的声音描述一个图像,同时将鼠标悬停在他们描述的图像区域上而生成的。例如,如上图所示,标注者在说“woman”时,会用鼠标表示其所在的空间范围,从而为这个名词提供了视觉基础。接着,他们把鼠标从女人身上移到气球上,沿着气球的绳子,说“holding”,这就为这种动词关系提供了直接的视觉基础。他们还描述了“clearbluesky”和“lightbluejeans”等属性。由于语音与鼠标指针同步,因此可以确定描述中每个单词对应的图像位置。这为每个单词提供了以鼠标跟踪片段形式的密集视觉特征。这一丰富的标注方法具有多种形式(图像、文本、语音和位置),可用于文本到图像生成、视觉问答和语音驱动的环境导航等不同的任务。或者为了对任务进行更精细的控制,比如对图像的特定部分进行说明,视力不好的人可以通过将手指悬停在图像上来获得特定部分的描述。
UNITER:UNiversalImage-TExtRepresentationLearning
视觉与语言(V&L)任务,如视觉问答(VQA)都依赖于多模态联合嵌入来弥合图像和文本中视觉线索与文本线索之间的语义鸿沟。但是这种表示通常是为特定的任务定制的,并且需要特定的网络体系架构。为了学习可用于所有V&L下游任务的通用联合嵌入,本文介绍了一种大规模联合多模态嵌入预训练模型UNITER,如下图所示。基于transformer模型,UNITER接受了4个任务的预训练:基于图像的蒙版语言建模(MLM),即使用图像和文本特征来恢复随机蒙版的单词;以文本为条件的蒙版区域建模(MRM),即重构给定图像的某些区域;图像文本匹配(ITM),即预测图像和文本实例是否配对;以及单词区域对齐(WRA),即学习最佳变换找到单词和图像之间的最佳对齐。要在下游任务上使用UNITER,首先要将其重新构造为分类任务,然后可以在网络输出的[CLS]特征后添加分类器并使用交叉熵损失进行训练。
LearningtoLearnWordsfromVisualScenes
视觉和语言任务(V&L)的标准方法是学习一个共同的嵌入空间,但这种方法效率低下,往往需要上百万个例子来学习,对语言的自然构成结构泛化较差,所学嵌入在推理时无法适应新单词。因此,本文提出让网络学习得到单词嵌入的过程,而非学习单词嵌入。
该模型基于transformer结构,在每一次迭代中,模型接收一个图像语言对,然后元学习一个策略来从中获取词表示。这就使得我们能够在推理时获得新单词的表示,并且能够更鲁棒地推广到新的描述任务中。具体来说,每一个任务都被定义为一个语言习得任务,其中包含训练样本和测试样本,可通过测试样本来对由训练样本中习得的语言进行评估。例如,在上图中,模型需要从训练样本中获取单词“chair”,这个单词以前从未见过。元训练在前向传递中完成,并使得模型指向训练示例中正确的单词“chair”,整个模型的训练使用匹配损失来完成。经过多种场景与任务的训练,该模型在推理过程中能够很快地适应新的任务。
结语
遗憾的是,论文的数量使得整个摘要工作既困难又费时。所以对于其余的论文,我将简单地列出一些我所遇到的论文标题,如果读者对这些主题感兴趣可自行深入研究。
AI研习社是AI学术青年和AI开发者技术交流的在线社区。我们与高校、学术机构和产业界合作,通过提供学习、实战和求职服务,为AI学术青年和开发者的交流互助和职业发展打造一站式平台,致力成为中国最大的科技创新人才聚集地。