5

CVPR 2020 Oral 出炉!5 篇 Oral 论文抢先看

 3 years ago
source link: https://bbs.cvmart.net/articles/1615
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

CVPR 2020 Oral 出炉!5 篇 Oral 论文抢先看

1年前 ⋅ 1863 ⋅ 0 ⋅ 0

在2月24日,CVPR 2020 公布接收论文结果公布,从 6656 篇有效投稿中录取了 1470 篇论文,录取率约为 22%。昨天,CVPR Oral结果公布了。有大佬已经分享了自己的工作,本文整理了5篇已中Oral的论文,分享给大家阅读。

1.PolarMask: 一阶段实例分割新思路[1,2]

论文地址:https://arxiv.org/abs/1909.13226

代码:https://github.com/xieenze/PolarMask

来自作者本人的详细解读:PolarMask: 一阶段实例分割新思路
file

PolarMask基于FCOS,把实例分割统一到了FCN的框架下。FCOS本质上是一种FCN的dense prediction的检测框架,可以在性能上不输anchor based的目标检测方法,让行业看到了anchor free方法的潜力。本工作最大的贡献在于:把更复杂的实例分割问题,转化成在网络设计和计算量复杂度上和物体检测一样复杂的任务,把对实例分割的建模变得简单和高效。

两种实例分割的建模方式:

file
实验结果:

file

2.Scene Graph Generation开源框架[3,4]

论文链接:https://arxiv.org/abs/2002.11949
论文代码:https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch

来自作者本人的详细解读:CVPR2020 | 最新最完善的场景图生成 (SGG)开源框架,集成目前最全metrics,已开源

选择2019年热门框架facebookresearch/maskrcnn-benchmark作为基础,在其基础上搭建了Scene-Graph-Benchmark.pytorch。该代码不仅兼容了maskrcnn-benchmark所支持的所有detector模型,且得益于facebookresearch优秀的代码功底,更大大增加了SGG部分的可读性和可操作性。

本文提出了一种基于因果推理的新颖SGG框架。首先为SGG建立因果图:

file

I: Image;X: Object Features; Z: Object Labels;Y:Predicate Logits

然后分析模型中的偏见来源。使用该图进行传统的有偏训练。作者认为,SGG中的偏见主要来源于下图右下角的那种场景,即不看具体的两个物体的状态,通过两个物体的label和一个union box的环境信息,盲猜这两个物体的relationship:

file

特别的是,作者使用Total Direct Effect取代单纯的网络log-likelihood,使得模型预测更有意义的relationship:

file

Recall:

file

3. Learning to Shade Hand-drawn Sketches[5]

论文地址:https://arxiv.org/abs/2002.11812

代码:https://github.com/qyzdao/ShadeSketch

file

本文提供了一种全自动方法,可以从成对的线描草图和照明方向生成详细而准确的艺术阴影。还提供了一个新的数据集,其中包含了用照明方向标记的成对的线描和阴影的一千个示例。值得一提的是,生成的阴影可以快速传达草绘场景的基础3D结构。因此,本文的方法产生的阴影是可以直接使用的。本文生成的阴影尊重手绘线和基础3D空间,并包含复杂且准确的细节,例如自阴影效果。此外,生成的阴影还包含艺术效果,例如边缘照明或背光产生的光晕,这也是传统3D渲染方法可以实现的。

file

生成的阴影手绘草图

file

上图:阴影系统获取线条图和照明方向标签,然后输出阴影。下图:包括三联手绘草图,阴影和照明方向在内的训练集。立方体显示记下26个照明方向的方式

4. SAM: The Sensitivity of Attribution Methods to Hyperparameters[6]

论文地址:https://s.anhnguyen.me/sam\_cvpr2020.pdf

代码:https://github.com/anguyen8/sam

file

归因方法可以提供对分类器决策原因的有力见解。作者认为,一种解释方法的关键要求是其对输入超参数的鲁棒性,输入超参数通常是随机设置或根据经验进行调整的。对任意超参数选择的高度敏感性不仅会阻碍可重复性,而且还会影响解释的正确性。

本文中对现有归因方法的敏感性进行了透彻的实证研究,发现了一个趋势:许多方法对它们共同的超参数的变化高度敏感,例如即使更改随机种子也会产生不同的解释!有趣的是,这种敏感性没有反映在文献中通常报道的数据集的average explanation accuracy scores 中。

file

5.Conditional Channel Gated Networks for Task-Aware Continual Learning

file
file

参考文献

[1]  https://zhuanlan.zhihu.com/p/84890413

[2] https://arxiv.org/abs/1909.13226

[3] https://zhuanlan.zhihu.com/p/109657521

[4] https://arxiv.org/abs/2002.11949

[5] https://arxiv.org/abs/2002.11812

[6] https://s.anhnguyen.me/sam\_cvpr2020.pdf

-END-

推荐阅读:

file
△关注极市平台,获取最新CV干货

微信公众号: 极市平台(ID: extrememart )
每天推送最新CV干货

版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK