7

f-VAEGAN-D2:VAE+GAN处理零样本学习问题 - zh-jp

 4 months ago
source link: https://www.cnblogs.com/zh-jp/p/17951117
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

虽然f-VAEGAN-D2在题目中说“适用任意样本”,但对比的Few-shot相关的实验较少,这里仅讨论零样本学习的情况。

1. 背景介绍

由于为每个对象收集足够数量的高质量带标签样本难以实现,使用有限的标签进行训练学习一直是一个重要的研究方向。零样本学习(Zero-Shot Learning, ZSL)最初被称为计算机视觉中的零数据学习,目标是在标签受到极大限制的设置下,完成训练。在传统的ZSL中(或称为归纳零样本学习),没有为目标类提供训练示例,因此这些类被称为未见类。对于训练示例,是有着标签配对的大量训练样本,这些样本的类被称为可见类。传统零样本学习的核心挑战是:对于存在的相关知识,使分类器能够从可见类中提取的知识转移到未见类中。类别相关的信息一般以辅助信息的形式给出,作为可见类与未见类知识迁移的桥梁,辅助信息被编码为嵌入向量后使用,辅助信息可以是由人工标注的属性信息、文本描述、知识图谱或本体(Ontology)等。

对于未见类,仅使用辅助信息学习会导致未见类真实分布与建模分布之间存在差异,这被称为域转移问题。为了简化零样本学习,提出了转导零样本学习(Transductive Zero-Shot Learning, TZSL),它允许在训练中额外包含未见类的未标记样本。

在足够的数据样本示例支持下,使用生成模型学习数据点的概率分布,以便从中采样并合成示例,实现数据增强,帮助TZSL学习未见类的数据分布。

f-VAEGAN-D2

3039442-20240107200618342-381707525.png

f-VAEGAN-D2作者通过消融实验证明将VAE与GAN结合能更好地生成图像特征。

  • 对于一组图像X=x1,…,xl∪xl+1,…,xt,编码在图像特征空间X中。
  • 一个已见类别标签集Ys,一个新类的标签集Yn(也就是零样本学习中的未见类别标签集Yu)。
  • 类别嵌入集合C={c(y)|∀y∈Ys∪Yn}(也就是描述图像的信息)编码在语义嵌入空间C中。
  • 前l个样本xs(s≤l)标记为已见类别ys∈Ys,其余点xn(l+1≤n≤t)是未标记的,可能是已见或新类。

在归纳设置中,训练集仅包含已见类别图像的标记样本,即X={x1,…,xl}。在转导设置中,训练集包含标记和未标记样本,即X={x1,…,xl,xl+1,…,xt}。

在零样本学习中,任务是预测属于新颖类别的那些未标记点的标签,即fzsl:X→Yn。而在广义零样本学习中,目标既可以是已见类别也可以来自新类的未标记数据并进行分类,即fgzsl:X→Ys∪Yn。

VAE与WGAN的损失函数

生成器G(z,c)接受随机噪声zp(文中假设zp∼N(0,1))和条件c,生成特征空间X上的CNN特征x^。判别器D(x,c)判断一对特征和类别嵌入是真实的还是生成的。GAN的优化目标(实际上就是WGAN的损失函数:'Earth-Mover'距离+梯度惩罚项)为:

LWGANs=E[D(x,c)]−E[D(x~,c)]−λE[(||∇x^D(x^,c)||2−1)2]

x~=G(z,c)为生成的特征,x^=αx+(1−αx),α∼U(0,1),λ为惩罚系数。

编码器E(x,c)将一对特征x和作为条件的类别嵌入c编码为潜在向量z(但从图中可以看到c并没有被处理)。VAE的优化目标为:

LVAEs=KL(q(z|x,c)||p(z|c))−Eq(z|x,c)[log⁡p(x|z,c)]

q(z|x,c)即为E(x,c),表示建模的条件分布;p(z|c)被假设为N(0,1);p(x|z,c)等同于解码器Dec(z,x)。

优化目标设置

图中的编码器E(x,c):X×C→Z将一对特征和类别嵌入编码为潜在向量。判别器D1:X×C→R判断一对特征和类别嵌入是真实的还是生成的。整个VAE-GAN的优化目标为:

LVAEGANs=LVAEs+γLWGANs

VAE的Decoder与GAN的Generator共享参数(也就是同一个模块两个名字,就像图中画出的);上标s表示该损失仅用于可见类;γ为超参数控制VAE和WGAN损失的权重。

而对于未见类,使用了无条件判别器D2X→R区分是真实的还是合成的未见类特征,优化目标为一个WGAN的损失函数:

LWGANn=E[D2(xn)]−E[D2(x~n)]−λE[(||∇x^nD2(x^n)||2−1)2]

其中x~n=G(z,yn),yn∈Yn,x^n=αxn+(1−αxn),α∼U(0,1)。

LWGANs的训练依赖语义嵌入的质量并存在域转移问题(缓解域转移问题也是归纳ZSL发展至转导ZSL的重要原因)。于是通过LWGANn学习CNN特征的边缘分布,为新类提供可转移的CNN特征。因此整个f-VAEGAN-D2优化函数为:

minG,EmaxD1,D2LVAEGANs+LWGANn

图中的随机噪声z∼N(0,1)与类嵌入c(y),经过串联后进入生成器,它们的维度相同时,即dz=dc效果较好(没有解释,也许是测试发现的?)。同样,视觉特征和类嵌入串联后进入判别器。LREC为二元交叉熵损失函数,表示重构损失。

论文中,对于合成的特征进行解释。图像特征通过上采样生成图片;文本解释通过训练的LSTM生成,LSTM根据图像的平均隐藏层生成类嵌入,得到合成特征的解释。

3039442-20240107200618798-241843396.png

对于每一块,顶部是原始图像,中部是原始图像真实特征(R)重构结果,底部同一类的合成特征(S)重构结果。

图展示了从真实特征和合成特征获得的解释。我们观察到该模型为可见类和未见类的合成特征生成图像相关和类特定的解释。例如,“King Protea”特征包含有关“红色花瓣和尖尖”的信息,而“Purple Coneflower”特征包含有关“粉红色和向下下垂的花瓣”的信息,这些特征是这种花在视觉上最显着的特征。

另一方面,如图底部所示,对于图像特征缺乏一定细节水平的类,生成的解释存在一些问题,例如重复,例如“喇叭形”和“星形”在同一个句子中和未知单词,例如参见“气球花(Balloon Flower)”的解释。

  1. Xian, Yongqin, et al. "f-vaegan-d2: A feature generating framework for any-shot learning." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019.

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK