6

论文推荐 | 一种协同注意力机制的深度推荐模型 ACAM;南加大游戏 AI 玩转《毁灭战士》

 3 years ago
source link: https://bbs.cvmart.net/articles/3010
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

论文推荐 | 一种协同注意力机制的深度推荐模型 ACAM;南加大游戏 AI 玩转《毁灭战士》

4个月前 ⋅ 680 ⋅ 0 ⋅ 0

文章来源:机器之心@微信公众号

本周的重要论文有南加大开发的玩转《毁灭战士》游戏的 AI 智能体,以及Salesforce 研究者的少样本 NLP 元学习综述。

1. Stabilizing Differentiable Architecture Search via Perturbation-based Regularization

2. Sample Factory: Egocentric 3D Control from Pixels at 100000 FPS with Asynchronous Reinforcement Learning

3. Searching to Exploit Memorization Effect in Learning with Noisy Labels

4. Towards Deeper Graph Neural Networks

5. Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog

6. A Knowledge-Enhanced Recommendation Model with Attribute-Level Co-Attention

7. ArXiv Weekly Radiostation:CV更多精选论文

论文 1:Stabilizing Differentiable Architecture Search via Perturbation-based Regularization

摘要:近期,可微架构搜索算法将 NAS 搜索时间缩短至数天,因而备受关注。然而其稳定生成高性能神经网络的能力受到广泛质疑。许多研究者发现随着搜索进行,DARTS 生成的网络架构反而越来越差,最终甚至会完全变为跳过连接。

为了支持梯度下降,DARTS 对于搜索空间做了连续化近似,并始终在优化一组连续可微的框架权重 A。但是在生成最终框架时,需要将这个权重离散化。

在本文中,来自加州大学洛杉矶分校的研究作者观察到这组连续框架权重 A 在验证集上的损失函数非常不平滑,DARTS 总是会收敛到一个非常尖锐的区域。因此对于 A 轻微的扰动都会让验证集性能大幅下降,更不用说最终的离散化过程了。这样尖锐的损失函数还会损害搜索算法在架构空间中的探索能力。

于是,他们提出了新型 NAS 框架 SmoothDARTS(SDARTS),使得 A 在验证集上的损失函数变得十分平滑。

file
file
file

推荐:本文提出的方法可以广泛应用于各种可微架构算法。在各种数据集和搜索空间上,研究者发现 SDARTS 可以一贯地取得性能提升。

论文 2:Sample Factory: Egocentric 3D Control from Pixels at 100000 FPS with Asynchronous Reinforcement Learning

摘要:最近,来自南加州大学和英特尔实验室的研究团队创建了一种新方法,该方法可以在学术实验室常见的硬件上训练深度强化学习算法。该研究被 ICML 2020 会议接收。

在这项研究中,研究者展示了如何使用单个高端工作站,在第一人称射击电子游戏《毁灭战士》(Doom)中训练具有 SOTA 性能的 AI。不仅如此,他们使用正常计算能力的一小部分解决了 DeepMind 创建的 30 种不同的 3D 挑战套件。

在具体配置上,研究者分别采用了一个具有 10 核 CPU 和 GTX 1080 Ti GPU 的工作站级 PC,以及配备了服务器级 36 核 CPU 和单个 RTX 2080 Ti GPU 的系统。

file
file
在 Atari、VizDoom 和 DMLab 三个模拟环境中,与 DeepMind IMPALA、RLlib IMPALA、SeedRL V-trace 和 rlpyt PPO 等基线方法相比,Sample Factory 更接近于理想的性能。

推荐:完虐「机器人」,36 核 CPU 单机设置,南加大游戏 AI 在 Doom 中实现 SOTA 性能。

论文 3:Searching to Exploit Memorization Effect in Learning with Noisy Labels

摘要:样本选择(sample selection)是噪声标签鲁棒学习的常用方法。但是,如何适当地控制选择过程,进而使深度网络从记忆效应(memorization effect)中获益却是一大难题。

在本研究中,受 AutoML 的启发,来自第四范式、清华大学等机构的研究者将此问题建模为一个函数逼近问题。具体来说,他们基于记忆效应的通用模式设计了一个特定于领域的搜索空间,同时提出以一种新的牛顿法(Newton algorithm)来有效地解决双层优化问题。

此外,研究者还进一步对该算法进行了理论分析,保证了算法对临界点的良好逼近。在基准和真实世界数据集上的实验结果表明,该方法优于当前最优的噪声标签学习方法,并且比现有 AutoML 算法更加高效。

file
file
file

推荐:论文二作杨瀚思(Hansi Yang)为清华大学本科生,现为第四范式机器学习研究组实习生。

论文 4:Towards Deeper Graph Neural Networks

摘要:在这项研究中,来自德克萨斯州 A&M 大学的研究者对更深图神经网络的发展提出了一系列新的见解。他们首先对这一问题进行了系统分析,并认为当前图卷积运算中表示变换与传播之间的纠缠是大幅度降低算法性能的关键因素。因此,将这两种运算解耦后,更深层次的图神经网络可以用来从更大规模的接受域中学习图节点表示。

此外,基于理论和实证分析,研究者提出了深度自适应图神经网络(Deep Adaptive Graph Neural Network, DAGNN),从而实现自适应地集成以自适应地整合来自大接受域的信息。在引用、合著(co-authorship)和共同购买(co-purchase)数据集的实验证实了研究者的分析和见解,并展示了他们所提方法的优越性。

file
file
file

推荐:本文已被 KDD 2020 会议接收。

论文 5:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog

摘要:在本文中,来自哈工大和西湖大学的研究者提出以一种 shared-private 网络来学习共享和特定知识。不仅如此,他们还提出了一种新颖的动态融合网络(Dynamic Fusion Network, DFNet),该网络可以自动利用目标域和每个域之间的相关性。

实验结果表明,该模型优于多域对话领域的现有方法,并实现了 SOTA 性能。最后,即使训练数据很少,该模型比以往最佳模型平均高出 13.9%,从而显示出它良好的可转移性。

file
file
file
file

推荐:本文已被 ACL 2020 会议接收。

论文 6:A Knowledge-Enhanced Recommendation Model with Attribute-Level Co-Attention

摘要:现有的基于注意力机制的推荐模型存在一些改进的余地。很多模型只在生成用户的表示时应用了粗粒度的注意力机制,少数改进的模型尽管在注意力模块中加入了物品的属性(特征)信息,即融入了物品的相关知识,但仍然仅在用户表示这一端应用了注意力机制。

针对这些问题,来自复旦大学的研究者出了一种在用户表示端与物品表示端协同应用(物品)属性级注意力机制的深度推荐模型,简称 ACAM(Attribute-level Co-Attention Model)。

file
模型架构图。
file
在 Douban movie 和 NetEase song 两项推荐任务上的性能比较结果。

推荐:该模型采用多任务学习框架训练损失函数,并融入知识(嵌入)表示学习的目标,从而可以学到更优的物品和物品属性表示。

ArXiv Weekly Radiostation

机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括CV领域各10篇精选,详情如下:

本周 10 篇 CV 精选论文是:

1. CrossTransformers: spatially-aware few-shot transfer.  (from Andrew Zisserman)

2. Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval.  (from Andrew Zisserman)

3. BSL-1K: Scaling up co-articulated sign language recognition using mouthing cues.  (from Andrew Zisserman)

4. Shape and Viewpoint without Keypoints.  (from Jitendra Malik)

5. NSGANetV2: Evolutionary Multi-Objective Surrogate-Assisted Neural Architecture Search.  (from Kalyanmoy Deb, Wolfgang Banzhaf)

6. BorderDet: Border Feature for Dense Object Detection.  (from Jian Sun)

7. WeightNet: Revisiting the Design Space of Weight Networks.  (from Xiangyu Zhang, Jian Sun)

8. Funnel Activation for Visual Recognition.  (from Xiangyu Zhang, Jian Sun)

9. Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed Videos.  (from Cordelia Schmid)

10. Vision-based Estimation of MDS-UPDRS Gait Scores for Assessing Parkinson's Disease Motor Severity.  (from Li Fei-Fei)

微信公众号: 极市平台(ID: extrememart )
每天推送最新CV干货

版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK