48

一窥 ACL 2018 最佳论文

 5 years ago
source link: https://www.leiphone.com/news/201806/TLokDzQ25WQk77my.html?amp%3Butm_medium=referral
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

uUbyiay.jpg!web

雷锋网 AI 科技评论按:随着定于 7 月 15 日的开会日期逐渐临近,自然语言处理顶会 ACL 2018 继公开了接收论文名单之后,今天也公布了包含 3 篇长论文 与 2 篇短论文的最佳论文获奖名单。

其实 ACL 2018 的流程设计与去年有所不同。ACL 2017 会前首先公布了 22 篇 outstanding 论文(可以看作最佳论文的预选论文),其中长论文 15 篇、短论文 7 篇;接着正会开始后这 22 篇论文分在四个不同的论文报告 session 中演讲,然后在最后一天的颁奖典礼上公布了最终的最佳论文奖得主。当时在 ACL 2017 做现场报道的我们雷锋网记者岑大师听了论文报告之后就对最佳论文得主做了自己的预测,果然猜中。(可惜今年就没有必要猜啦)

eErAv2Z.jpg!web

说回 ACL 2018,ACL 2018 组委会于 6 月 10 日直接在官网发出公告,公布了今年 5 篇最佳论文的评选结果。不过截止发稿时只有其中 2 篇论文的内容是公开的,另外 3 篇论文的介绍请等待雷锋网 (公众号:雷锋网) AI 科技评论后续报道。

最佳论文 - 长论文(3 篇)

Finding syntax in human encephalography with beam search

  • 用束搜索在人脑成像中寻找句法

  • (论文内容尚未公开)

  • 作者之一的 Jonathan Brennan 来自密歇根大学文学、科学与艺术学院计算神经语言学实验室

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

  • 学习如何问好的问题:通过完全信息下的期待值为追问问题排序

  • 论文摘要:在沟通中,提问是一大基本要素:如果机器不知道如何问问题,那它们也就无法高效地与人类合作。在这项研究中,作者们构建了一个神经网络用于给追问的问题做排名。作者们模型设计的启发来源于完全信息情况下的期待值:一个可以期待获得有用的答案的问题就是一个好问题。作者们根据 StackExchange 上抓取的数据研究了这个问题;StackExchange 是一个内容丰富的在线咨询平台,其中有人发帖咨询以后,别的用户会在下面追问起到解释澄清作用的问题,以便更好地了解状况、帮助到发帖人。论文作者们创建了一个由这样的追问问题组成的数据集,其中包含了 StackExchange 上 askubuntu、unix、superuser 这三个领域的约 77k 组发帖+追问问题+问题的回答。作者们在其中的 500 组样本上评估了自己的模型,相比其他基准模型有显著的提高;同时他们也与人类专家的判断进行了对比。

  • 论文地址: https://arxiv.org/abs/1805.04655

  • 论文作者来自马里兰大学与微软研究院

Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers

  • 让我们「再」做一次:首个检测假定状态触发副词的计算性方法

  • 论文摘要:这篇论文中,作者们介绍了一种新的研究课题——预测副词词性的假定状态触发语(adverbial presupposition triggers),比如「also」和「again」。完成这样的任务需要在对话上下文里寻找重复出现的或者相似的内容;这项任务的研究成果则可以在文本总结或者对话系统这样的自然语言生成任务中起到帮助。作者们为这项任务创造了两个新的数据集,分别由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也专为这项任务设计了一种新的注意力机制。作者们设计的注意力机制无需额外的可训练网络参数就可以增强基准 RNN 模型的表现,这最小化了这一注意力机制带来的额外计算开销。作者们在文中表明,他们的模型相比多个基准模型都有统计显著的更高表现,其中包括基于 LSTM 的语言模型。

  • 论文地址: https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

  • 这篇论文来自加拿大麦克吉尔大学(McGill University)与蒙特利尔算法学习人工智能实验室(MILA)

最佳论文 - 短论文(2 篇)

Know What You Don't Know: Unanswerable Questions for SQuAD

'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions

  • “打火机”也可能是黑暗的:建模比较性的颜色描述

  • (论文内容尚未公开)

  • 这篇论文来自哥伦比亚大学

最佳论文公告参见 https://acl2018.org/2018/06/10/best-papers/

更多 ACL 2018 及其他重要学术会议报道,请继续关注雷锋网 AI 科技评论。

雷锋网版权文章,未经授权禁止转载。详情见 转载须知


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK