欢迎光临挖掘机械网站,为您提供一系列挖掘机机械产品厂家质量保障,值得信赖!

挖掘机械

专注于挖掘机械设备,高可靠性,满意顾客需求!

[挖掘机的分类和适应条件]使用无监督的对抗性领域适应方法进行隐性章节关系分类

作者:易秋      发布时间:2021-04-10      浏览量:6
一、前言今天分享了2019年CoNLL上

一、前言

今天分享了2019年CoNLL上有关章节分析的paper-《Unsuperviservisedarstarialdomaindomainforitforimplict上有关章节分析的papaper-《Unsuperviserviserviservisarvervistarvedarsarstarstarararlarstararstarindstaldtariondtforioriortfortiortiortfortiortiortiortiortiondatitititationdtiondtatatatiortatatatatatfortioratiordtitititatatititatatitatatiordtitatationdtitititatatitatitiondtatationdtiondtiondtiontatatatatationtiontiontatatationtationtitatatationtiontiontiontatationdtitatititatatatatatitationtiontatationtationtiontiontationtationtiontiontiontiontationtiontiontiont论文中作者提出了无监督的对抗性领域的适用方法,换句话说,利用对抗网络,无监督的方法进行隐藏的章节关系识别,通过关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关于关

二、2Introduction

文章语义关系分类是文章分析的重要组成部分,对信息抽取、自动摘要、机械翻译起着重要作用。文章的意思关系包括显示文章关系(and、but等有显示文章连接词的隐性文章关系关系implicitdiscoursebrelations)。中所述情节,对概念设计中的量体体积进行分析下图是宾州树库定义的章节关系水平系统,作者解决的任务也基于宾州树库。

1.与显性章节的语义关系相比,隐性章节的语义关系(Implictitdiscourserlations)不仅在分类上有挑战性,而且在标记上也有

2.对于上述问题,2015年提出了非监督域适应(domaintation)的显式关系训练方法,具体的想法是标签的显式关系面向着源区域,没有标签的隐性关系面向着目标区域,以区域适应转移学习的方式进行隐性关系预测

以上述方法的差异,从显示了该区域的差异

三、3Notation

四、四个Model

框架分为三个阶段:

预训练阶段、对抗阶段、测试阶段。

4.1encoder

encoder框架主要采用双向lstmattention的方式,如下图所示。

4.2Classifier

分类器在Encoder后面加入全连接层和softmax分类层,在此过程中产生源域交叉损失函数:

4.3Adversarial

源数据预训练完成后,进行域适用的对抗学习,在此过程中产生对抗损失函数和目标域数据损失函数:

4.4Reconstion/p>其中有第一个子损失函数的trick(标签顺利处理)变动,这里不详细,有兴趣详细阅读论文。

以上是本论文模型部分的大致情况,总体来说,作者以四个损失函数为中心展开,最后的Reconstruction损失函数是作者创新提出的,目的是保持目标域数据的差异特征,提高转移学习效果。接下来,我将简要介绍实验。

五、5.Experiments

数据集在PDTB。章节关系使用第一层的四种关系Temporal,Comparison,Contingency,andexpansion)分为显示和隐藏两种,详情如下图所示。

利用上述方法,作者展开实验,实验结果如下:

实验结果显示,作者model加入Reconstruction方法确定的F1值为40.9%,与其他人的3种方法相比,其中最好的网站论文发表在2019年,作者可能还没有参考bert的思想。现在做NLP任务,不比较bert类的方法,就不能轻信自己的方法最好~~

6.结语