2

SURE:增强不确定性估计的组合拳,快加入到你的训练指南吧 | CVPR 2024 - 晓飞的算法...

 4 weeks ago
source link: https://www.cnblogs.com/VincentLee/p/18145569
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

论文重新审视了深度神经网络中的不确定性估计技术,并整合了一套技术以增强其可靠性。论文的研究表明,多种技术(包括模型正则化、分类器改造和优化策略)的综合应用显着提高了图像分类任务中不确定性预测的准确性

来源:晓飞的算法工程笔记 公众号

论文: SURE: SUrvey REcipes for building reliable and robust deep networks

0eeb42899bf44210f8efce4af9f44401.png

Introduction


  深度神经网络 (DNNs) 已成为结构化数据预测任务中强大且适应性高的工具,但准确评估其预测的可靠性仍然是一个巨大的挑战。在医疗诊断、机器人、自动驾驶和地球观测系统等关键安全领域,过度自信的预测的决策可能会导致严重的后果。因此,确保基于DNN的人工智能系统的鲁棒性至关重要。

8742af2fb5725e58ac9b8a32de510502.png

  解决深度学习中的过度自信问题一直是重大研究工作的焦点,但目前很多方法的一个关键限制是测试场景有限,通常仅限于单个预定义任务(例如故障预测或分布外检测(OOD))的基准数据集。这些方法在涉及更复杂的现实情况时(如数据损坏、标签噪声或长尾类分布等),其有效性仍很大程度上尚未得到充分探索。而且通过实验表明,没有一种方法能够在不同的场景中表现一致。为此,论文提出了一个有效解决所有这些挑战的统一模型。

  在论文追求增强不确定性估计的过程中,论文首先检查几种现有方法的综合影响,从而发现一种可以显着改进的综合方法。根据这些方法在模型训练过程中的功能对进行分类:

  • 正则化和分类器:利用RegMixup正则化、正确性排名损失 (CRL) 和余弦相似性分类器 (CSC) 等技术,这有助于增加具有挑战性的样本的熵。
  • 优化策略:按照FMFP的建议结合了锐度感知最小化 (SAM) 和随机权重平均 (SWA),确保模型能够收敛到更平坦的最小值。

  这些不同技术的协同整合最终形成了论文的新颖方法SURE,该方法利用了每个单独组件的优势,产生了更加稳健和可靠的模型。

  在评估SURE时,论文首先关注错误预测(failure prediction),这是评估不确定性估计的关键任务。结果表明,SURE始终优于部署单独技术的模型。这种卓越的性能在CIFAR10CIFAR-100Tiny-ImageNet等各种数据集以及ResNetVGGDenseNetWideResNetDeiT等各种模型架构中都很明显。值得注意的是,SURE甚至超越了OpenMix,这是一种利用额外OOD数据的方法。通过将SURE直接应用到现实场景中,无需或只进行很少的特定于任务的调整,进一步见证了在为模型带来鲁棒性方面的有效性。具体来说,现实世界的挑战包括CIFAR10-C中的数据损坏、Animal-10NFood-101N中的标签噪声以及CIFARLT中的类分布倾斜。在这些背景下,SURE取得的结果要么优于最新的方法,要么与最新的方法相当。SUREFood-101N上达到了 88.0% 的令人印象深刻的准确率,显着超过了之前最先进的方法Jigsaw-ViT,该方法通过使用额外的预训练数据达到了 86.7% 的准确率,这证明了SURE在处理复杂的现实数据挑战方面的卓越能力。

  本文的主要贡献总结如下:

  • 实验证明现有方法在应对各种现实挑战时并不总能表现出色,需要更可靠、更稳健的方法来处理现实世界数据的复杂性。
  • 提出用于鲁棒的不确定性估计的新颖方法SURE,结合模型正则化、分类器和优化策略等多种技术所实现的协同效应。在SURE方法下训练的模型在故障预测方面始终比在各种数据集和模型架构中部署单独技术的模型取得更好的性能。
  • 直接应用于现实场景时,SURE始终表现出至少与最先进的方法相当的性能。

Methods


cf9ecb2abd8d073982b238d6d13b929a.png

  如图 2 所示,SURE旨在通过两个方面训练可靠且鲁棒的DNN:i)增加难样本的熵; ii) 在优化过程中强制寻找平坦极值(flat minima)。

  定义 {(xi,yi)}Ni=1 表示数据集,其中 xi 是输入图像,yi 是其标签,N 是样本数。

SURE中增加难样本熵的方法由三个部分组成:

  • 增加RegMixup正则化 Lmix,通过数据增强添加难样本。
  • 增加正确性排名损失 Lcrl,通过将实例的置信度与正确预测次数比例进行排序对齐来正则化类概率。
  • 在分类的交叉熵损失 Lce使用余弦相似度分类器(CSC)的结果作为输入,可以更好地表达难样本。

  此外,为了平坦极值,在优化过程中使用锐度感知最小化 (SAM) 和随机权重平均 (SWA)。

Increasing entropy for hard samples

  • Total loss

  如上所述,SURE的目标函数由三部分组成,表示为:

Ltotal=Lce+λmixLmix+λcrlLcrl(1)
  • RegMixup regularization

Mixup是一种广泛用于图像分类的数据增强方法。

  给定两个输入目标对 (xi,yi) 和 (xj,yj),通过线性插值来获得增强样本 (˜xi,˜yi):

˜xi=mxi+(1−m)xj,˜yi=myi+(1−m)yj(2)

  其中 m 表示混合系数,遵循Beta分布:

m∼Beta(β,β),   β∈(0,∞)(3)

RegMixup正则化 Lmix 计算增强样本的损失值:

Lmix(˜xi,˜yi)=Lce(˜xi,˜yi)(4)

  设置 β=10,确保两个样本高度混合。

  与RegMixup类似,将 Lmix 作为附加正则化器,与 (xi,yi) 上的原始交叉熵损失 Lce 一起使用。 较高的 β 值会导致样本严重混合,促使模型在大量的插值样本上表现出高熵,增加训练的挑战性。

  • Correctness ranking loss

  正确性排名损失鼓励DNN将模型的置信度与训练期间收集的正确预测比例信息保持一致(即经常预测正确的图像,其置信度也应该高于不经常预测正确的图像)。

  对于两个输入图像 xi 和 xj ,Lcrl 的定义为:

Lcrl(xi,xj)=max(0,|ci−cj|−sign(ci−cj)(si−sj))(5)

  其中 ci 和 cj 表示训练期间 xi 和 xj 被正确预测的比例,si 和 sj 表示 xi 和 xj 的置信度得分,即softmax得分,sign表示符号函数。

  Lcrl 旨在将置信度得分与正确性统计数据对齐,难样本在训练过程中不太可能被正确预测,因此鼓励其具有较低的置信度,从而具有较高的熵来进行反向更新。

  • Cosine Similarity Classifier (CSC)

CSC通过简单地用余弦分类器替换最后一个线性层,在少样本分类中有不错效果。简单而言就是每个类学习一个原型向量,将其与图像的特征网络输出进行余弦相似计算,将结果作为预测分数。

  对于图像 xi ,分类向量中对应 k 类的单元表示为 ski ,其定义如下:

ski=τ⋅cos(fθ(xi),wk)=τ⋅fθ(xi)||fθ(xi)||2⋅wk||wk||2,(6)

  其中 τ 是温度超参数,fθ 是 θ 参数化的DNN网络,用于提取输入图像的特征,wk 代表第 k 类的原型向量。

CSC鼓励分类器关注从输入图像提取的特征向量与类原型向量之间的方向对齐,这使得它在概念上不同于传统的线性分类器。传统的线性分类器中关注点积得出的幅值(用于进行softmax),而CSC仅关注其方向是否一致。CSC的一个主要好处是能够更好地处理难样品,将难样本视为与多个类原型向量在余弦角度相等,从而比使用点积的传统线性分类器提供更有效的可解释性和潜在更高的熵。

Flat minima-enforced optimization

  论文联合采用锐度感知最小化(SAM)和随机权重平均(SWA)来增强平面最小值。

  • Sharpness-Aware Minimization (SAM)

  由于参数量巨大,深度模型存在较多的局部极值,而优化过程就是在寻找其中一个极值。一般认为,平坦的极值比尖锐的极值的泛化能力更强。为此,SAM通过寻找邻域平坦的参数来增强模型泛化能力,从而使DNN具有一致的小损失,避免陷入尖锐的局部极值。

  对于论文的目标函数 Ltotal 和DNN参数 θ,SAM优化器寻求满足以下公式的 θ:

minθmax||ϵ||2≤ρLtotal(θ+ϵ)(7)

  其中 ϵ 是扰动向量,ρ 是论文寻求最小化损失锐度的邻域大小。

SAM算法在 ℓ2 范数小于 ρ 的范围内寻找使损失最大化的扰动向量 ϵ(此过程需要基于 θ 产生的梯度进行计算),然后基于 θ+ϵ 产生的新梯度反向更新模型参数 θ,交替进行上面两个步骤来最小化扰动损失。

  • Stochastic Weight Averaging (SWA)

SWA通过在训练过程中平均模型权重来提高DNN的泛化能力。

  从标准训练阶段开始,SWA开始对后续每个周期的权重进行平均,权重更新为:

θSWA=1TT∑t=1θt(8)

  其中 θt 表示 t 周期时的模型权重,T 是应用SWA的周期总数。

Implementation details

  使用以随机梯度下降(SGD)作为基础优化器的SAM进行训练,动量为 0.9,初始学习率为 0.1,权重衰减为 5e-4,采用余弦退火学习率策略,数据批次大小为128。总共训练 200 个周期,SWA起始周期设置为 120,将SWA的学习率设置为 0.05,以增强训练的有效性和模型鲁棒性。设置公式 (3) 中的 β = 10 以进行混合数据增强,所有超参数(包括 λmix、λcrl 和 τ)均根据验证集表现上进行调整。

  在对ImageNet预训练模型DeiT-Base进行微调时,设置学习率为 0.01,在 50 个周期内权重衰减为 5e-5,SWA开始周期为 1,学习率为 0.004。

Experiments


1dcd484b4d9a2470a3ba60d243ad79fb.png

  表 1 中展示了CIFAR10CIFAR100Tiny-ImageNet上的故障预测结果。

059b7fd9b90a3aee3b1f96cd030acdee.png

  表 2 展示了在长尾数据集CIFAR10-LTCIFAR100-LT与最先进方法比较。

400f3bb9c206aea115f45ca750154b02.png
2971ded6395a6a1467749425e7af0c0a.png

  表 3 和表 4 展示了在含噪声标签的Animal-10NFood-101N上的 top-1 准确率。

aa80e15c2396910c8c643aea77601e90.png

  在实际应用中,环境条件容易频繁变化,例如天气从晴朗到多云,再到下雨。对于模型来说,在这种分布或领域偏移下保持可靠的决策能力至关重要。图 3 展示了在偏移数据集CIFAR10-C上评估使用CIFAR10的干净训练集训练的模型的性能比较。

71e09e0a1dc43941eb813057212d6d8d.png

  论文在表 5 中分析了每个组件对SURECIFAR100上的性能贡献。

487a0163d4b06ad2eb3ca7f537865c17.png

  图 4 中可视化了CIFAR100-LT IF=10上的置信度分布,SURE明显比MSPFMFP带来更好的置信度分离。

如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

work-life balance.

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK