4

Implicit 3D Orientation Learning for 6D Object Detection from RGB Images论文笔记

 2 years ago
source link: https://bacterous.github.io/2018/09/25/Implicit-3D-Orientation-Learning-for-6D-Object-Detection-from-RGB-Images%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0/
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

论文地址

注:本文谨代表笔者观点,水平有限,若有不足及疏忽之处,诚请批评指正

Abstract

提出一个RGB-based的实时目标检测和6D姿态估计pipeline。这个新型3D的目标朝向估计(orientation estimation)方法基于去噪自编码器的一个变体,其采用域随机(Domain Randomization)在3D模型的模拟视图上训练,称之为Augmented Autoencoder。与现有方法相比,它的优势在于:无需真实、带姿态标注的训练数据;可泛化至多种测试传感器,并能够内在地(inherently)处理目标与视图的对称性问题。不需学习一个从输入图像到目标姿态的显式映射,本方法给出了目标朝向的隐式表征(implicit representations),由隐空间(latent space)的样本定义。基于 T-LESS 和 LineMOD 数据集的实验表明所提的方法不仅比类似的基于模型的方法有更好的表现,而且表现也接近目前顶级的、需要真实的姿态标注图像的方法。

1 Introduction

现有方法的劣势:

  1. 对于像目标遮挡、不同的杂乱背景(background clutter)和环境的动态变化等典型难题,不够鲁棒
  2. 通常需要目标的特定属性(如足够的表面纹理结构、非对称形状)来避免混淆
  3. 运行效率不理想,not efficient in带标注训练数据的数量

本文的方法在单张RGB图像上操作,由于不需深度信息,大大提高了其可用性。同时也注意到,深度图可选择性地合并,以改进估计结果。算法第一步应用SSD做目标检测,获得目标的bbox和identifiers。接着,在生成的scence crops上,使用本文提出的3D朝向估计算法,基于一个预先训练好的深度网络架构。虽然现有方法也在使用深度网络,但是在训练过程中,本算法并未显式地从3D姿态标注中学习 ,而是隐式地从渲染的3D模型中学习表征。这个学习过程利用域随机策略,训练了一个generalized版本的去噪自编码器,称之为Augmented Autoencoder(AAE)。这个方法的优势如下:

  1. 训练过程无需用特殊正交群SO(3)表示的物体朝向,由于避免了从图像到物体朝向间的一对多映射,本方法可以解决由对称视图引起的姿态模糊不清问题
  2. 本方法学习到的表征,特别地编码了3D朝向,故而在面对遮挡、杂乱背景等问题有着不错的鲁棒性,同时对于不同的环境和传感器也有着良好的泛化性
  3. AAE不需要任何真实的姿态标记好的训练数据,而是以一个自监督的方式训练,完成对3D模型视图的编码。

整个算法的原理图如下:

2 Related Work

Depth-based方法(如使用Point Pair Features,PPF)在多个数据集上验证了其在姿态估计问题上的鲁棒性,但是通常依赖对许多pose hypotheses进行评估,计算负载较大。另外与RGB相机相比,现有的深度传感器通常对阳光或特定物体表面敏感度更高。

相较于传统的2D目标检测,对6D物体姿态的真实图像进行标注需要耗费成数量级增加的精力,要求标注者有专业的知识和一个复杂的setup。大部分姿态估计算法使用真实标注图像,不过也因此被限制在pose-annotated datasets

有些研究也已经提出从3D模型渲染得到合成图像,不费吹灰之力就得到了大量的数据集。但是,单纯在合成图像上训练往往不能泛化到真实的测试图像。因此,问题的关键在于将模拟视图与真实拍照之间的domain gap,想办法连结

2.1 Simulation to Reality Transfer

从合成数据到真实数据的转换,存在三种主要策略:

  • Photo-Realistic Rendering

    对诸如目标检测和视角估计(viewpoint estimation)任务有着混合泛化性能。适合环境简单的场景,并在用相对小数量的真实标注图像联合训练的条件下性能不错。但该方法总是有瑕疵,也需更多精力。

  • Domain Adaptation (DA)

    利用训练数据从source domain向target domain映射,其中包含小部分标记数据(监督DA)或未标记数据( 非监督DA)。对于非监督DA,应用GANs从合成图像生成现实图像,用以训练分类器、3D姿态检测器和grasping algorithms。在构建一个promising方法时,GANs经常生成fragile训练结果。监督DA能降低对真实标注数据的需求,但无法完全放弃。

  • Domain Randomization (DR)

    在多种semi-realistic settings(通过随机的光照条件、背景、饱和度等增广)下渲染得到视图(由于随机增广,故亦会产生真实环境图像),再利用这些视图训练一个模型,视为hypothesis,DR构建即构建在其之上。在使用CNNs解决3D形状检测问题上,Tobin等人验证了DR的潜力。Hinterstoisser等人的工作显示,用一个纹理3D模型的随机合成视图,仅仅训练FasterRCNN的头部网络也能泛化至真实图像。必须提及的是,他们的渲染基本属于photo-realistic,纹理3D模型有着极高的质量。最近,Kehl等人首创了一个专门针对6D目标检测,端到端的CNN–‘SSD6D’,使用一个moderate DR策略来利用合成训练数据。他们将纹理3D物体以随机姿态渲染得到的视图,重建在改变过亮度和对比度的MSCOCO背景图像上。这些操作使网络能够泛化到真实图像之上,并enables 6D detection at 10Hz。跟我们一样,对于十分精确的距离估计,依赖Iterative Closest Point(ICP),利用深度数据作后处理。但是,我们不将3D朝向估计视为一个分类任务。

2.2 Learning representations of 3D orientations

由于固定的SO(3)参数化会促进对特定对象表征的学习,故而我们认为训练的难点在此。

  • Regression

    由于旋转存在于连续空间,用固定的SO(3)参数化方法(如:四元数)直接做回归似乎是理所当然的。然而,表示方法的各式约束和模糊位姿会导致收敛问题。实际中,直接回归的方法在3D物体朝向估计问题上的表现不太理想。

  • Classification

    对3D目标朝向做分类 ,需要对SO(3)进行离散化。即使在粗粒度的区间∼5o下,也能产生超过50.000个可能的类。因此,每个类别在训练集上只是稀疏地出现,阻碍了收敛过程。SSD6D通过分别分类离散化视角与结构平面内的旋转,学习3D朝向信息,将复杂度降到了O(n2)。 但对于非规范视角,例如,当从上方观察物体时,视角的变化几乎等同于结构平面内旋转的变化,这会产生模糊的类组合。总之,使用one-hot分类忽略了不同朝向间的关联。

  • Symmetries

    3D朝向的固定表征,在面对对称性时,会产生严重的位姿歧义。如果不人工介入,同一训练图片可能被分配不同的朝向label,这会严重干扰模型的学习过程。为了处理模糊物体,大部分方法都经过了人工调整。这样的策略在依据目标调整离散化时,忽略了一个维度的旋转,并需额外再训练一个CNN来预测对称性。用这样繁冗的人工方法来提前过滤物体对称性,对于由遮挡和自我遮挡产生歧义的情景更难解决。对称性不仅影响回归和分类方法,对于任何learning-based方法也有很大影响,因为这些方法仅仅通过固定的SO(3)表征分辨目标。

  • Descriptor Learning

    描述子学习可用来学习与目标在低维空间相关的表征。Wohlhart等人提出了一个CNN-based描述子学习方法,使用了triplet-loss。尽管也混合进了合成数据,训练过程仍然依赖pose-annotated传感器数据。而且,该方法不能解决对称问题,因为对于像一些,看起来相同但朝向完全相反的ambiguous object,可能在loss中占主要部分。Baltnas等人在这个研究基础上,enforce描述子与位姿距离间的平衡。利用cosidered poses下,深度信息的差异,为位姿距离损失计算权重,能够很好地解决目标对称问题。这个启发式的方法(heuristic)提升了对称物体的精度,参见[40]。我们的方法也是基于学习描述子,但是我们训练了自监督Augmented Autoencoders(AAEs),其学习过程本身是与任何固定的SO(3)表征独立的。也就是说,描述子的学习仅仅基于目标视图的表观,因此对称歧义问题也被内在地顾及。描述子3D朝向的分配已是在训练结束之后了。另外,不像上述两种方法,我们的方法可以避免训练时真实标注数据的使用。

    Kehl等人在LineMOD数据集上的随机RGB-D scene patches的基础上,构建了一个自编码结构。在测试过程时,场景的描述子与object patches相互比较,找寻最合适的6D 位姿。尽管这些方法需要评估很多patches, 每次预测大约需要670ms。另外,使用局部patches意味着忽略了目标特征间的全局关联,这对只有很少texture的情景是很致命的。相反,我们是在整体的目标视图上训练,显式地学习域不变性(invariance)。

3 Method

以下主要介绍新型的基于AAE的3D朝向估计方法。

3.1 Autoencoders

Hinton等人提出的原始Autoencoder,是针对图像、音频或深度信息这样的高维数据,进行降维的的技术。它由一个编码器Φ和一个解码器Ψ组成,都是任意可学习的function approximators,通常是神经网络。训练的目标是,重建通过低维bottleneck的输入x∈RD ,被称为潜在表征z∈Rn,其中n≪D:

ˆx=(Ψ∘Φ)(x)=Ψ(z)

per-sample损失函数是pixel-wise L2距离的单纯求和:

ℓ2=∑(i∈D)||x(i)−ˆx(iu)||2

得到的latent space举例来说,可用来做非监督聚类。Denoising Autoencoders相比之下在训练过程中由些许调整。在输入图像x∈RD上人工添加随机噪声,而重建目标却stays clean。训练的模型,可用来重建降噪后的测试图像。但是,latent表征在其中产生了何种影响呢?

Hypothesis 1: 由于降噪自编码器生成的latent表征有助于重建去噪图像,故它对噪声是不变(invariant)的。

我们将会论证,这样的训练策略实际不仅仅加强了对抗噪声的不变性,也在对抗大量不同的输入扩增时保持良好的不变性。最终,它使模拟数据与真实数据之间的domain gap得以连接。

3.2 Augmented Autoencoder

AAE的初衷是为了控制latent表征编码过程中,哪些属性保留,哪些丢掉。我们对输入图像x∈RD做随机增广faugm(.),其编码当为不变量。重建的目标仍以eq.(2)衡量,但是eq.(1)变为:

ˆx=(Ψ∘Φ∘faugm)(x)=(Ψ∘Φ)(x′)=Ψ(z′)

为了证明Hypothesis 1适用于几何变换,我们在不同尺度、平面内平移和旋转描绘一个正方形的许多二值图像上,学习latent表征。我们的目的是将平面内的旋转r∈[0,2π]编码在2维latent空间 z∈R2,编码要能与缩放或者平移独立。Fig.3说明了训练一个CNN-based AE框架(与Fig.5的模型相似)的结果。在固定尺度和平移(1)或随机尺度和平移(2)训练AEs来重建正方形,可以观察到,AEs并不能单独地清楚编码旋转信息,而且对其它latent因素也比较敏感。相反,AAE的编码下,所有朝向一致的正方形也被map到了相同的编码下,对平移和尺度有着不变性。另外,latent表征也更加平滑,latent维度也分别imitate一个频率为f=42π的shifted sin和cos函数(latent dimensions imitate a shifted sine and cosine function with frequency f=42π respectively)。原因在于,正方形有两条互相垂直的对称轴。例如,当旋转π2之后,正方形看起来就一样了。在3D目标朝向问题上避免由于对称引起的混淆问题,用基于目标appearance而不是固定的parametrization来表征朝向显得尤为有价值。

3.3 Learnig 3D Orientation from Sythetic Object Views

我们的toy problem显示,可以利用一个几何扩增技术,显式地学习目标的平面内的旋转。使用相同的几何输入增强方法,我们可以从3D目标模型(CAD or 3D重建)把整个SO(3)空间编码,且能对不准确的目标检测结果有着良好的鲁棒性。然而,编码器仍然无法与从真实的RGB传感器crop得到的图像关联,原因如下:

  1. 3D模型与真实目标间的差异
  2. 模拟与真实光照条件之间的差异
  3. 网络无法从背景杂乱与前景遮挡分辨目标

为了使编码过程对于无关的环境信息、传感器差异等保持不变性,我们在AAE框架下提出了一个域随机(Domain Randomization, DR)技术,而不是尝试在模拟中模仿特定真实传感器记录的每个细节。其目标是训练编码器将不同相机图像的差异,视为另一个无关的偏差。因此,当保持重建目标clean,我们向训练视图的输入,随机地作额外增广:

  1. 在随机光源位置和随机反射与漫反射的条件下(simple Phong model in OpenGL),渲染视图
  2. 嵌入Pascal VOC数据集中的随机图像,作为背景
  3. 变化图像对比度、亮度、高斯模糊和颜色扭曲
  4. 使用随机物体mask或者黑色正方形产生遮挡

Fig.4展示了一个典型训练过程,训练数据为T-LESS数据集中object 5的合成视图。

3.4 Network Architecture and Training Details

我们实验中采用的卷积自编码框架如Fig.5所示。我们使用了一个bootstrapped pixel-wise L2损失函数,仅仅在最大误差的像素点上计算loss(每张图片的bootstrap因子 b=4)。因此,重建出了更好的细节,训练过程也没有收敛到局部最优。在OpenGL的帮助下,我们统一为每个目标沿相机轴恒定距离(700mm),以随机3D朝向渲染了20000张视图。将得到的图像进行二次裁剪,并将尺寸调整为128×128×3,如Fig.4所示。在随机光照渲染之外,对输入的所有几何和颜色增广在训练时在线应用,采用uniform random strength,参数详情见补充从材料。优化器采用了Adam,lr为2×10−4,Xavier初始化,batch size为64,30000次迭代。在一张Nvidia Geforce GTX 1080上需∼4 小时。

3.5 Codebook Creation and Test Procedure

训练之后,AAE便有能力从许多不同摄像头传感器(Fig.8)裁切得到的真实场景提取3D目标。编码器重建的清晰程度和朝向,能够表明编码质量的高低。为了从测试场景裁切图像上确定3D目标朝向,我们创建了 一个codebook(Fig.6 (top)):

  1. 在完整的view空间,用等距的视角渲染clean、合成的目标视图
  2. 以固定间隔在每个视图中旋转,以覆盖整个SO(3)
  3. 通过对所有结果图像生成latent codes z∈R128,和设定相应旋转Rcam2obj∈R3x3 创建一个codebook

测试过程中,在RGB场景中先检测出研究目标,目标所在区域被二次裁剪并resize,使其满足encoder的input size。在编码之后,计算测试编码ztest∈R128与codebook中的所有编码zi∈R128间的余弦相似度:

cosi=ziztest||zi||||ztest||

利用kNN搜索最高相似度,返回从codebook中得到对应的旋转矩阵{RkNN},作为3D目标朝向的估计。我们采用余弦相似度的原因是:

  1. 即使非常大的codebook,也能在一块GPU上有效计算。在实验中,我们有2562个等距视角×36个平面内旋转=总共92232项。
  2. 可观察到,可能是由于旋转的圆形性质,对测试latent code的缩放操作,并不改变decoder重建的目标朝向(Fig.7)

3.6 Extending to 6D Object Detection

Training the Oabject Detector

我们finetune了VGG16 base的SSD,所用图像是将LineMOD和T-LESS的训练集的目标,从不同视角得到的recordings嵌在了黑色背景上。我们也训练了backbone为ResNet50的RetinaNet,虽然慢些但是有更高的精度。多个物体以随机朝向、尺度和平移,复制在了一个场景下,并以此调整BBox的标注。至于AAE,黑色背景要用Pascal VOC图像替换。在训练60000个场景后,引入各种颜色和几何增广。

Projective Distance Estimation

我们预估完整的从相机到物体中心的3D变换tpred,跟[17]一样。因此,对codebook中每个合成的目标视图,保存其2D BBox的对角线长度lsyn,i。测试时,计算检测的BBox对角线长度ltest与对应codebook中(如相似朝向)对角长度lsyn,maxcos之间的比率。针孔相机模型产生的距离估计tpred,z为:

tpred,z=tsyn,z×lsyn,maxcosltest×ftestfsyn

其中,tsyn,z为synthetic recdering distance,ftest,fsyn分别为测试传感器和渲染视图的焦距。

(tpred,x tpred,y)=tpred,zftest((bbcent,test,x−ptest,x)−(bbcent,syn,x−psyn,x) (bbcent,test,y−ptest,y)−(bbcent,syn,y−psyn,y))

其中,ptest,psyn为主点(principal points),bbcent,syn、bbcent,syn为BBox中心。与[17]相比,我们可以预测不同的test intrinsics的3D变换。

ICP Refinement

optionally,评估结果在深度数据上进行微调,使用标准的ICP方法在CPU需要∼200ms。详见补充材料

Inference Time

VGG16 base的SSD、31个类别加上codebook大小为92232×128​的AAE(Fig.5),平均的inference times如Table 1所示。RGB-based pipeline可以在Nvidia GTX 1080上以∼42Hz​达到实时处理。这使AR和机器人应用有更多的余地留给tracking算法。多个编码器和对应codebooks可以放入显存,可以实现多物体的姿态预估。

4 Evaluation

我们在T-LESS和LIneMOD数据集上,测试了AAE和整个6D检测pipeline。

4.1 Test Conditions

一些RGB-based位姿估计方法仅依赖于3D模型的信息。大部分方法使用了真实的标注数据,甚至测试时采用了与训练时相同的场景(如,在轻微不同的视角下)。通常的做法是,忽略in-plane旋转或者仅考虑在数据集中出现的目标位姿,这样的做法限制了其适用性。对称目标经常被单独看待,或者直接忽略。SIXD challenge尝试通过禁止使用测试集场景pixels的使用,以一个更公平的方式来比较6D localization算法。我们遵循他们这些严格的评估标准来处理难度更高的6D detection问题,而6D detection问题的特点是,不知道场景中存在哪些研究对象。T-LESS数据集中的目标十分相似,故对于T-LESS来说尤为困难。

4.2 Metrics

Visible Surface Discrepancy (errvsd)是一个anbiguity-invariant pose error function,由预估的和ground truth的visible object depth surface间的距离来决定。正如SIXD challenge的guideline,在偏差τ=20mm和object visibility>10%的前提下,我们记录errvsd<0.3的正确6D目标位姿的召回率。尽管Average Distance of Model Points(ADD)不能反映位姿歧义的问题,我们仍然将其记录,因为LIneMOD dataset遵循[11]的protocol(km=0.1)。那些对称的物体,[11]计算了到最近model point的平均距离。在我们的ablation studies里,也测试了AUCvsd。

4.3 Ablation Studies

为了单独评估AAE,这一节我们仅仅预测T-LESS数据集(on Primesense and Kinect RGB scene crops)中的Object 5的3D朝向。Table 3展示了输入augmentations的影响。可观察到,不同的颜色扩增的影响是累积的。对于结构不清的物体,甚至色彩反转也是有益的,因为这样防止了模型过拟合到合成的颜色信息上去。另外,用T-LESS数据集中提供的真实物体,嵌在随机选取的Pascal VOC中的背景图像上,再作增广获得数据集,在这样的真实数据上训练,仅仅比在合成数据上训练有轻微的性能提升。Fig. 9a描述了用不同latent space size下的3D pose estimation的准确率,结果显示dim=64时性能最优。Fig. 9b证明了,我们的Domain Randomization策略甚至可以泛化使用untextured CAD模型。

4.4 6D Object Detection

首先,我们测试的RGB-only的结果包含了2D detection、3D orientation estimation和projective distance estimation。虽然这些结果看起来不错,还是用了简单的cloud-based ICP方法对distance estimation进行微调,再与目前state-pf-the-art depth-based方法进行比较。Table 4展示了在T-LESS数据集(该数据集包含许多pose ambiguities)上所有场景下的测试结果,我们微调之后的结果与最近Kehl等人的local patch descriptor方法相比,性能出众。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK