16

Paper | AAAI 2020 故事生成模型 之 角色一致性

 3 years ago
source link: http://mp.weixin.qq.com/s?__biz=MjM5ODkzMzMwMQ%3D%3D&%3Bmid=2650413337&%3Bidx=3&%3Bsn=6bc9617bf57661ec2cd05cdc7e919cee
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

7z2URfZ.jpg!web

AZNF7jA.png!web

一、导读

论文:

A Character-Centric Neural Model for Automated Story Generation

任务:

给定title进行故事生成

期:

在故事生成模型上显式的获取人物信息和情节与人物之间的关系,以提高可解释性和一致性。

机构:

北大 / 上交 / IBM

代码:

https://github.com/liudany/character-centric

发表:

AAAI2020

二、摘要

自动生成故事 是一项具有挑战性的任务,其目标是自动生成尽可能真实的故事,这些故事由连续的情节和一致的角色组成

最新的一代模型是建立在先进的神经网络,例如,变分自动编码器(VAE),生成对抗网络(GAN),卷积序列到序列模型(convolutional sequence to sequence model)。

虽然这些模型在语言模式的学习上取得了一定的成绩, 但是很少有方法考虑到故事类型的属性和先验知识,特别是从可解释性和一致性的角度考虑

为了填补这一空白,我们提出了一个 以人物为中心的神经网络讲故事模型

在这个模型中,一个故事围绕着给定的人物来创造,即一个故事的每一部分都取决于一个给定的角色和相应的上下文环境。

通过这种方式,我们明确地捕捉人物信息和情节与人物之间的关系,以提高可解释性和一致性。

三、Motivation

在过去,人们会提出各种 基于规则或基于模板 的方法,这些方法具有 显式的 先验领域知识。

最近,大量的神经模型被用于故事生成,不需要手工领域知识,因此更适合各种场景。但由于黑箱性质和建模长期依赖关系以及复杂的情节和角色的要求, 神经模型仍然受到可解释性和一致性的限制。

对于神经故事生成,以往的框架主要将其作为一个标准的 长文档生成任务 ,并提出将其分解为一个多阶段生成过程来解决长期依赖问题。

对于神经故事生成的经典方法有:首先使用神经语言模型生成中间表示,例如,关键字(Yao et al. 2019)、骨架(Xu et al. 2018)、提示(Fan、Lewis、Dauphin 2018),然后利用另一个神经语言模型在这些中间表示上生成每个句子。

在此过程中,这些模型可以很好地从训练故事中获取语法和词汇信息,但可能无法将特定于任务的属性考虑进去,例如,显式地建模角色、情节等。

这些方法依旧存在以下问题:

一方面 ,注重生成框架可能会导致生成的故事无法从故事的角度进行解释, 比如一个看似可信的故事可能由不相关的情节和不匹配的人物组成。

另一方面 ,以往的神经模型主要侧重于语义层面的一致性建模,例如,主题的一致性,跨句的连贯性,而 角色的一致性则没有得到探索

四、本文贡献

本文在借鉴前人的故事生成方法的基础上,结合已有的故事类型知识,我们尝试 将深度神经生成网络与角色建模显式结合起来 ,这被认为是提高角色可信度的有效方法。

具体地说,我们为一个故事分配了一致的角色,并将故事生成过程重新表述为 在上下文环境下选择给定角色的一系列动作

这样,生成的故事的每个部分都明确地将角色与给定的上下文环境相关联,从故事类型的角度 增强了生成故事的可解释性

此外,给定的角色在故事生成过程的每一步都指导着动作选择操作,以促进角色的一致性。在对话系统(Li et al. 2016)中也验证了这种策略可以提高说话人在神经响应生成中的一致性。

在这篇论文中,我们提出了一个以角色为中心的神经讲故事模型,它在分布式嵌入中显式地编码角色以指导故事的生成

五、模型整体结构

我们将每个角色表示为一个分布式嵌入embedding,它编码角色的个性特征以及角色在不同情况下的表现。

在我们的模型中,故事的发展是由角色和当前情况之间的持续交互驱动的。因此我们将故事生成分解为两个步骤:

  • 首先,我们的模型 预测 了角色在每个时间步上对当前情况的反应 动作 。即根据S与C预测V。

  • 其次,通过角色embedding、预测动作和情景信息来 生成 完整的 句子 。即根据S、C与V进行句子的生成。

nYJzqib.png!web

图1:我们模型的整体框架。

实箭头表示每个句子的生成过程。

黑色虚线箭头表示更新过程。

S、C、V分别为上下文内容、角色embedding和预测行为。

如图1所示,我们的模型包含三个元素:角色C、场景S和动作V。前一个生成的句子被用作输入来生成下一个句子。

我们将我们的方法的输入和输出正式定义如下:

  • 输入:

    • 标题:T = {t1, t2,…, tm}

    • 角色嵌入:C = {c1, c2,…,cp }

    • 其中 ti表示第i个单词,m表示标题的长度

    • 其中 ci表示故事中的 第i个角色 嵌入。

  • 输出:

    • 生成的故事:Y = {y1, y2, y3,…, yn}作为我们模型的结果生成

    • 其中yi = {wi,1, wi,2, wi,3,…, wi,l}表示生成的故事中总共n个句子中第i个句子

    • 其中wi,j表示生成的第i个句子中的第j个单词。

注:原本的故事生成模型是给定title,生成story,本文的模型要求给定title的同时给定character(角色)。这一改进提升了模型效果,增进了角色一致性。但角色需要提前给定,且需要角色本身的社会信息。

六、一个直观的例子

f2I7Vzy.png!web

翻译:

标题 ( 给定 )

《尖峰时刻》

角色 ( 给定 )

警察 ( 以向量表示 )

上下文内容

一场枪战爆发了。

预测的行为

逮捕

生成的句子

陈警官逮捕了一群枪支走私犯。

如上表所示,这是一句子的生成过程,根据这个直观的例子,我们可以更好的理解数据集的形式。

七、结合例子看模型

如图2所示,我们的模型将故事生成分解为两个步骤:

  • 1)动作预测,预测 当前 角色(警察)对当前语境环境(如图所示Si)作出的反应 (逮捕)。

  • 2)句子生成,构成一个完整的句子。

这个分层生成框架提供了对生成过程的 细粒度控制 ,其中 每个步骤由给定的角色显式地选择操作,以增强可解释性和字符一致性。

BraaUre.png!web

图2:假设上下文内容是根据香港发生的一场激烈的枪战。

给定的角色是警察闵洙。

T表示给定的标题。

结合以上信息,我们的动作预测器计算出动作应该是arrest,输出的句子是警官逮捕一群枪支走私犯。

注意,在句子生成器的每个步骤中都涉及到角色嵌入。

本模型可以分为角色嵌入、动作预测、句子生成和训练策略四个模块细节。

图2左下角展示的是角色嵌入空间。

本文的角色建模(char-embedding)使用每个角色的语言特征(包括相关的动词和属性)的特征求avg作为初始化。

角色嵌入编码角色的属性(例如。(如性格、工作、情感、性别、年龄),这些都会影响角色的行动决定。

注意,初始化之后,我们的模型根据训练过程将角色沿着其中一些属性进行聚类。在动作预测器和句子生成器的训练过程中, 通过反向传播学习角色嵌入

相近的角色往往具有相似的个性特征(例如,工作、年龄、性别) 。因此构建了分布式embedding之后在使用时遇到没有见过的角色,可以通过嵌入向量相似而预测出相似的action。

然后char-embedding在decoder的每一个时间步随着target的wordemb一起输入,以此做到角色在故事生成过程的每一步都指导着动作选择操作,以促进角色的一致性。

图2中下方展示的是 动作预测

经过训练,我们的动作预测器将获得推断动作的能力。更具体地说,它是泛化能力,这意味着它有助于推断出一个角色将会执行的动作,即使他/她在训练故事语料库中从未经历过这种情况。

由于训练语料库不能涵盖所有的角色特征,所以这一属性 非常重要

我们的模型 基于对特定场景的动作选择来学习角色表征,使得具有相似动作风格的角色在嵌入空间中更倾向于定位在邻近区域

该特性提高了动作预测器的泛化能力。

例如

考虑角色i和j,他们都是警察,并且在嵌入空间中很邻近。

在训练数据中,当现场显示有一名男子在人群中开枪时,警察进行了逮捕。 即使人物j从未经历过相同的情况,但由于其 嵌入向量相似,j执行逮捕行动的概率很高。

这就是角色嵌入的泛化能力,它帮助模型在不熟悉 的情况下执行与其特征一致的动作。

图2中右 展示的是句子生成部分

在句子生成阶段引入 角色 嵌入是非常重要的。 因为除了动作之外,还有很 多与角色相关的信息(例如:形容词、副词、宾语)构成一个完整的句子。

例如

假设角色i是一名篮球运动员,预测的动作是play。 考虑 角色 嵌入C使 得我们的 模型更倾向于生成篮球而不是计算机作为游戏对象。

同时, 角色 嵌入增强了 角色 可解释性和一致性

例如

考虑到角色i是一个新生儿,当面对危险时,新生儿所能做的就是哭泣。

但是现有的基于最大似然估计(MLE)的模型更倾向于记住故事语料库的常见模式, 这意味着它们更倾向于预测动作逃跑或故事语料库中在危险情况下经常同时出现的其他词汇。

我们的模型明确地引用了每一步的 角色 嵌入,这使得模型能够选择适当的操作来匹配 角色 的属性(例如,年龄、性别、个性)。

八、总结

以前的方法缺少故事类型的属性和先验知识,可解释性和一致性差:

  • 一方面,注重生成框架可能会导致生成的故事无法从故事的角度进行解释,比如一个看似可信的故事可能由不相关的情节和不匹配的人物组成。

  • 另一方面,以往的神经模型主要侧重于语义层面的一致性建模,例如,主题的一致性,跨句的连贯性,而角色的一致性则没有得到探索。

本文为一个故事分配了一致的角色,并将故事生成过程重新表述为在上下文环境下选择给定角色的一系列动作。

这样, 生成的故事的每个部分都明确地将角色与给定的上下文环境相关联,从故事类型的角度增强了生成故事的可解释性。

此外, 给定的角色在故事生成过程的每一步都指导着动作选择操作,以促进角色的一致性 。在对话系统(Li et al. 2016)中也验证了这种策略可以提高说话人在神经响应生成中的一致性。

在这篇论文中,我们提出了一个以角色为中心的神经讲故事模型,它在分布式embedding中显式地编码角色以指导故事的生成。

角色char-embedding是由每个角色的语言特征(包括相关的动词和属性)的特征求avg得到,在decoder的每一个时间步随着target的wordemb一起输入。 在char-emb上遇到没有见过的角色,可以通过嵌入向量相似而预测出相似的形式。

作者:西柚媛

编辑: 西柚媛

推荐阅读

AINLP年度阅读收藏清单

当当四折购书,推荐一份书单

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

太赞了!Springer面向公众开放电子书籍,附65本数学、编程、机器学习、深度学习、数据挖掘、数据科学等书籍链接及打包下载

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。

qIR3Abr.jpg!web


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK