BrambleXu / knowledge-graph-learning

A curated list of awesome knowledge graph tutorials, projects and communities.
MIT License
744 stars 120 forks source link

arXiv-2019/05-Relation Extraction Datasets in the Digital Humanities Domain and their Evaluation with Word Embeddings #190

Open BrambleXu opened 5 years ago

BrambleXu commented 5 years ago

一句话总结:

提出了一个高质量的,数位人文学数据集,用于验证语言模型的好坏。

数据倒是挺有意思的

问题: 提案: 具体做法: 效果:

资源:

论文信息:

笔记:

主要关注文学领域,具体从两个系列中获取数据,一本是冰与火之歌,一本是哈利波特。

The research question is how well current NLP methods, especially in the form of word embedding models, perform on extracting and verifying fine-grained relations and knowledge from the comparably small book series corpora. 这个研究的目的是研究现在前沿的NLP语言模型,对于这种相对比较小的书籍语料,抽取fine-grained relations and knowledge的能力如何。

这个研究的贡献:

  1. 手工构筑了这两本书的数据,包括analogy (类推) and doesn’t-match tasks (不匹配)
  2. 我们尝试了很多种unigram和n-gram的word embeddingmodels,然后进行了验证。有一点要强调,使用existing generic embeddings方法是不可能的,因为大部分entity在pre-trained models里都是OOV。

我们没打算实现太高的accuracy,而是为将来的工作做一个baseline。

3.3 Word Embedding Models

尝试了下面几种模型:

4.1 Evaluation Setup

4.3 Analogy Task Results

类推的任务可以通过一个例子完美解释,在ASOIF中,淹神对葛雷乔伊,相对于 狮子对XXX。答案是兰尼斯特。

image

image

我们发现创建一个用于类推任务,且有高质量关系的数据非常困难。因为歧义问题很严重。在冰与火里,一个人可能有多个名字,或绰号。而且关系也会随时间改变。比如在冰与火里,Jon Snow一开始被认为是私生子,但后来发现并不是。

4.4 Doesn’t match Task Results

输入4个term,其中有一个是不相关的,答案要预测哪个是不相关的。验证的脚本是通过Gensim(基于正确答案)给出 intruder candidate。Gensim计算所有输入的vector,去平均值。然后计算consine距离,拥有最大距离的vector的term,就是不匹配的term。所以随机的baseline是 0.25.

image

image

4.7 Impact of Task Difficulty

在冰与火里,family-siblings是比较困难的类别,比如 Jaime Tyrion Cersei

image

接下来要看的论文

Kernelized Hashcode Representations for Relation Extraction