32

基于排序思想的弱监督关系抽取选种与降噪算法

 5 years ago
source link: https://www.jiqizhixin.com/articles/2018-10-30-8?amp%3Butm_medium=referral
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

Z3yemmv.png!web

y6nYRjb.png!web

引言

最近阅读了 Ranking-Based Automatic Seed Selection andNoiseReduction for Weakly Supervised Relation Extraction 这篇文章,该工作来自于 Nara Institute of Science and Technology,发表在 ACL 2018。

这篇文章主要对弱监督关系提取中两个相关的任务展开研究:

  • Bootstrapping关系提取(BootstrappingRE)的自动选种任务;

  • 远程监督关系提取(Distantly Supervise RE)的降噪任务。

文章受到 Web 结构挖掘中最具有权威性、使用最广泛的 Hypertext-induced topic search(HITS)算法,以及 K-means、潜在语义分析(LSA)、非负矩阵分解(NMF)等聚类中心选择算法的启发, 提出一种能够从现有资源中选择初始化种子、并降低远程标注数据噪声的算法。

实验证明,该算法的性能要好于上述两个任务的基线系统。下面是我对这篇文章的阅读笔记。

问题引入

BootstrappingRE 算法是机器学习中一种比较常用的弱监督学习方法。首先,利用一个称作“seeds”的小实例集合进行初始化,用以表示特定的语义关系;然后,通过在大规模语料库上迭代获取实例和模式,以发现与初始化种子相似的实例。 该算法性能的主要制约因素在于语义漂移问题 ,而解决语义漂移问题的一种有效手段就是选择出高质量的“seeds”。 

Distantly Supervise 技术是一种用于构建大规模关系提取语料库的有效方法。然而,由于错误标注问题的存在,远程监督获取的语料常常包含噪声数据,这些噪声会对监督学习算法性能造成不良影响。因此, 如何降低错误标注带来的数据噪声,就成为了远程监督技术的一个研究热点。

问题转化

BBv63qa.png!web 表示目标关系的集合,每一种目标关系 qaIbMfE.png!web 由一个三元组集合 Dr= {(e1, p, e2)} 来表示。其中,e1 和 e2 表示实体,实体对 (e1,e2) 被称为实例,p 表示连接两个实体的模式。例如,三元组 (Barack Obama, was born in, Honolulu),(BarackObama, Honolulu) 表示一个实例,“was born in”表示模式。 

结合上述概念文章将所研究的两个关系提取任务分别定义如下: 

BootstrappingRE 的自动选种任务: 以目标关系集合 JZ7VJ3U.png!web 为输入,针对每一个 7RbeUbq.png!web ,从由数据集中提取出的三元组集合 Dr 的实例中,选出能使BootstrappingRE 算法高效工作的种子。 

Distantly Supervised RE 的降噪任务:从由 DS 自动为每个关系 3a22Yrv.png!web 生成的三元组集合 Dr 中,过滤出所包含的噪声三元组(错误标注三元组)。 

由以上两个任务的描述可以发现, 无论是选种还是降噪都是从给定的集合中选出三元组。 从排序的角度来看,这两个任务实质上拥有相似的目标。

因此, 文章将这两个任务分别转换为: 在给定三元组集合 Dr(可能包含噪声)的情况下,实例 (e1,e2 )的排序任务(选种)和三元组 (e1, p, e2 ) 的排序任务(降噪)。

在选种任务中,使用排名最高的 k 个实例作为 bootstrapping RE 的种子。同理,在降噪任务中,对于 DS 生成的三元组,使用其中排名最高的 k 个三元组来训练分类器(降噪任务中的 k 值可能远远小于选种任务中的 k 值)。

自动选种和降噪算法

文章提出的算法受到了 Hypertext-induced topic search(HITS)算法,以及 K-means、潜在语义分析(LSA)、非负矩阵分解(NMF)等聚类中心选择算法的启发。

该算法根据具体的任务来决定是选择实例还是选择三元组:实例用于自动选种任务,三元组用于降噪任务。由于实例即为实体对,而实体对又包含在三元组中,因而可以通过实例和三元组之间的转换,灵活的将提出的方法分别应用到两个任务中。

基于K-means的算法

文章提出的基于 K-means 的算法具体描述如下:

1. 确定需要选择的实例/三元组的数目 k;

2. 运行 K-means 聚类算法将输入的三元组中的所有实例划分为 k 个簇,每个数据点通过其对应实体间的嵌入向量差来表示。例如,实例 I=(Barack Obama,Honolulu) 对应于 vec(I)=vec("Barack Obama")-vec("Honolulu");

3. 从每个簇中选出最接近质心的实例。

基于HITS的算法

Hypertext-induced topic search(HITS)算法又称为 hubs-and-authorities 算法,它是一种广泛用于对 web 页面排序的链接分析方法。

该算法的基本思想是:利用 Hub 页面(包含了很多指向 Authority 页面的链接的网页)和 Authority 页面(指与某个主题相关的高质量网页)构成的二部图,计算每个节点的枢纽度(hubness)得分,然后据此对网页内容的质量和网页链接的质量做出评价。 

对于第 2 节描述的两个任务,可通过实例 (e1,e2) 和模式 p 的共生矩阵 A 生成两者的二部图,进而即可利用 HITS 算法的思想计算两者的 hubness 得分。

文章提出的基于 HITS 思想的选种策略描述如下:

1. 确定要选择的三元组的数目 k;

2. 基于实例-模式的共生矩阵 A 构建实例和模式的二部图。下图所示为构建二部图的三种可能思路。思路一:将每一个实例/模式均作为图中的一个节点。思路二:将实例和模式分别作为边和节点。思路三:将实例和模式分别作为节点和边;

ieiEjyM.png!web

3. 对于思路一和思路三,仅保留 hubness 得分最高的 top k 个实例作为输出。对于思路二,选择与得分最高的模式相关联的 k 个实例作为输出。

基于HITS和K-means的方法

该方法将 HITS 算法和 K-means 算法组合使用。首先,基于实例和模式的二部图对这两者进行排序;然后,在标注数据集上运行 K-means 算法对实例进行聚类。之后,与常规思路不同,这里不选择距离质心最近的实例,而是选择每个簇中 HITS 算法 hubness 得分最高的实例。

基于LSA的算法

潜在语义分析(LSA)是一种被广泛应用的多维数据自动聚类方法,该方法利用奇异值分解(Singular value decomposition,SVD)算法构建实例-模式共生矩阵 A 的等价低秩矩阵。

所谓 SVD,是将矩阵 z6riUrn.png!web

分解为三个矩阵的乘积:SVD 实例矩阵 MJRRzaZ.png!web ,奇异值对角矩阵 uyiiuai.png!web ,SVD模式矩阵 MbqEBjj.png!web :  

本文提出的基于 LSA 的选种策略具体描述如下:

1. 指定需要的三元组数目 k;

2. 利用 LSA 算法将实例-模式的共生矩阵 A 分解为矩阵 I、S、P。将 LSA 的维度设置为 K=k;

3. 将 LSA 看作软聚类的一种形式,其中 SVD 实例矩阵 I 的每一列对应一个簇。之后,从矩阵 I 的每一列选出绝对值最高的 k 个实例。

基于NMF的方法

非负矩阵分解(Non-negative matrix factorization,NMK)是另外一种用于近似非负矩阵分解的方法。非负矩阵 IZZjuqV.png!web 可以近似表示为 3maMZrN.png!webfuIjUfz.png!web 这两个因子的乘积: 

3qiQjqb.png!web

非负约束(non-negativity constraint)是 NMF 与 LSA 之间的主要区别。与基于 LSA 的方法类似,NMF 算法先将期望选择的实例数目设置为 K=k。之后,从矩阵 W 的每一列中选出值最大的 k 个实例。

实验

数据集与设置

文章使用了一个局整关系的标注数据集做为种子选择的来源。该数据集提取自 Wikipedia 和 ClueWeb。这里,所谓的局整关系并不是指某一种具体的关系,而是指一种类型的关系集合,如下表所示。

6RreyaI.png!web

表中显示出了局整关系集中 8 种子关系出现的频率。数据集中 8 种子关系共有 5727 个标注实例。文章通过使用 Precision@N 来衡量提出的模型性能,其中取 N=50。实验中 k 的值在区间 [5,50] 内以 5 为步长逐步递增,对于每个选种方法给出其 P@50 的值。

在降噪任务中,文章使用由 (Riedel et al., 2010) 开发的训练集和测试集,该数据集是通过将 Freebase 关系与纽约时报语料库对齐而生成的,包含53 种关系类型。在使用提出的方法从数据集中滤除噪声三元组之后,文章使用过滤后的数据对两种卷积神经网络模型(CNN)进行了训练:一种是 (Zeng et al., 2014) 提出的 CNN 模型,一种是 (Zeng et al., 2015) 提出的 PCNN 模型。 

表中显示出了局整关系集中 8 种子关系出现的频率。数据集中 8 种子关系共有 5727 个标注实例。文章通过使用 Precision@N 来衡量提出的模型性能,其中取 N=50。实验中 k 的值在区间 [5,50] 内以 5 为步长逐步递增,对于每个选种方法给出其 P@50 的值。

在降噪任务中,文章使用由 (Riedel et al., 2010) 开发的训练集和测试集,该数据集是通过将 Freebase 关系与纽约时报语料库对齐而生成的,包含 53 种关系类型。在使用提出的方法从数据集中滤除噪声三元组之后,文章使用过滤后的数据对两种卷积神经网络模型(CNN)进行了训练:一种是 (Zeng et al., 2014) 提出的 CNN 模型,一种是 (Zeng et al., 2015) 提出的 PCNN 模型。

自动选种算法性能

选种算法的实验结果如下表所示。对于基于 HITS 的算法和基于 HITS+K-means 的算法,文章给出了相应的 P@50(分别采用 3.2 节介绍的三种构图思路),实验中使用随机种子选择做为对比基线。

2An6n2r.png!web

观察实验结果发现,随机选种性能最差,为 0.75;基于 HITS 的策略、基于 LSA 的策略和基于 NMF 的策略,三种算法性能相当,都超过了基线算法;对于基于 HITS 的策略,三种不同的构图思路中,思路一和思路三性能提升明显,思路二性能虽有提升但效果明显低于其他两种策略;将 HITS 策略(构图思路分别采用思路一和思路三)与 K-means 算法结合得到的性能在提出的算法中最佳。

HITS 策略中思路二效果不佳的原因在于:一个模式可能含有歧义,因而链接到该模式的实例可能并不与其匹配,这说明依靠实例选种要好于依靠模式选种。

降噪算法性能

在降噪实验中,文章分别采用基于 HITS、LSA 和 NMF 的算法,下表为各算法对于 CNN 和 PCNN 模型带来的性能提升。表中最右边一列为集成算法的性能,该方法结合基于 HITS 和基于 LSA 的策略,其中,一半的三元组来自基于 HITS 的算法,另一半三元组来自基于 LSA 的算法。

ymEZfeY.png!web

观察实验结果发现,基于 HITS 的策略表现最为稳定,对于四种模型都能提升其性能;基于 LSA 的策略,与注意力机制(无论模型是 CNN 还是 PCNN)结合使用时性能提升明显,但与多实例学习算法结合使用则效果变差,甚至还要低于原始模型;基于 NMF 的策略,对于 PCNN 模型(无论采用多实例学习还是注意力机制)能带来明显的性能提升,但对于 CNN 模型性能改善不明显;将基于 HITS 的策略和基于 LSA 的策略集成使用,则对于四种模型不但表现稳定,且性能提升效果也十分明显。

总结

文章创造性地将关系提取中的自动选种和数据降噪这两个重要任务转换为排序问题。然后,借鉴 HITS、K-means、LSA 和 NMF 等传统算法策略,按照对实例-模式三元组排序的思路,构建出了兼具自动选种和数据降噪功能的算法。实验结果显示,文章提出的算法能够有效完成自动选种和数据降噪任务,并且其性能同基线算法相比也有较大提升。

这篇文章的启发作用在于:对于关系提取中的不同子任务通过问题转换归结为本质相同的同一问题,而后借鉴已有的成熟算法设计出可以通用的解决策略。这种思路上的开拓创新能否应用于其他 NLP 任务,是一个值得思考和探索的方向。

参考文献

[1] Sebastian Riedel, Limin Yao, andAndrew McCallum. 2010. Modeling relations and their mentions without labeled text. In Proceedings of the 2010 Joint European Conference onMachine Learningand Principles of Knowledge Discovery in Databases (ECML PKDD), pages 148–163. Springer. 

[2] Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou, and Jun Zhao. 2014. Relation classification via convolutional deep neural network. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pages 2335–2344. Dublin City University and Association for Computational Linguistics.

[3] Daojian Zeng, Kang Liu, Yubo Chen, and Jun Zhao.2015. Distant supervision for relation extraction via piecewise convolutional neural networks. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 1753–1762. Association for Computational Linguistics.


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK