kacky24 / papers

my publications and short summaries of papers I have read
3 stars 1 forks source link

Graph Convolution over Pruned Dependency Trees Improves Relation Extraction #38

Closed kacky24 closed 5 years ago

kacky24 commented 5 years ago

short summary

文中の、主語と目的語(subject and object)の関係を分類するタスクであるrelation extractionに、graph convolutionを適用した論文。(ex, 文中のpersonとorganizationをemployed_atという関係に分類する) GCNのdependency treeへの適用によるentity-centricな表現抽出に加え、主な係り受け関係以外の枝刈りを工夫することで、TACREAD datasetでSOTA.

model

通常のgraph convolution operation

2018-10-17 23 37 00

しかし、これだと

そこで、次のように改良

2018-10-17 23 37 00

self-loopを加え、非線形変換を加える前に次数で割って平均をとっている。
行列表現

2018-10-17 23 37 00

GCNによるencode

2018-10-17 23 37 00

上図のように、GCN適用後max pooling
ただし、entity token (subject and object)周りの情報は、relation classificationでは重要度が高い。 そこで、GCNの最終層の出力の、主語と目的語に対応する部分(上図の目的語のように複数語の可能性あり)は、別で改めてpoolingを行い、concat

2018-10-17 23 37 00

その後、FFNN(fc層)、softmaxを経て、各relationへの確率分布を得る。

Contextulized GCN

前述のGCNにはまだ不十分な点がある。

そこで、まず、bi-directional lstmに通してcontextを考慮した表現を得たのち、それをGCNの入力とする。

path-centric pruning

2018-10-17 23 37 00

relationに寄与する情報のほとんどは、lowest common ancestor (LCA) (上図の深緑のノード)をrootとするsubtree内に大抵ある。先行研究により、このスコープ外のtokenを除くことで精度向上が確認されている。しかし、例えばsubjectとobject間のshortest pathでは、枝を刈りすぎていて、必要な情報も除いてしまっている。そこで、LCAのsubtree内のsubject, object間のpathから一定距離K離れたノードまでを残すようにする(K=∞:LCAのsubtree内の全ノード考慮)。K=1がベストだった。

結果

2018-11-04 3 21 07

既存のdependency-based model, neural sequence model(dependency tree使わない)を上回った。

URL

https://arxiv.org/abs/1809.10185 https://github.com/qipeng/gcn-over-pruned-trees

author

Yuhao Zhang, Peng Qi, Christopher D. Manning Stanford University Stanford, CA 94305 {yuhaozhang, pengqi, manning}@stanford.edu

year

EMNLP 2018