agatan / paper-reading-notes

読んだ論文の管理とメモ置き場
5 stars 0 forks source link

Language Models as Knowledge Bases? #31

Open agatan opened 5 years ago

agatan commented 5 years ago

BERT は膨大なテキストから事前学習しているので、Entity 間の関係性を implicit に学習しているのでは?という仮説を実験して確かめた論文。 実験の結果、fine tune しなくても (DANTE, born-in, X) のような triplet を定義して X を当てるというタスクや open domain QA のようなタスクをそこそこの精度で解けてしまうことが確認された。

Relational Knowledge Extraction の場合は、 (DANTE, born-in, X) を解く代わりに、 Dante was born in [MASK]. を解いている。 QA の場合は、 Who developed the theory of relativity? を解く代わりに The theory of relativity was developed by [MASK]. を解いている。