schnell3526 / paper-reading

読んだ論文の管理リポジトリ
0 stars 0 forks source link

[2019] K-BERT: Enabling Language Representation with Knowledge Graph #13

Open schnell3526 opened 2 years ago

schnell3526 commented 2 years ago

リンク

出版年

2019

概要

BERTの入力を工夫し、知識グラフの情報を埋め込む手法を提案。

image

入力文に直接知識グラフ中のトリプルを埋め込み、softposition index と visible matrix を導入して元の文の並びや構造は保持させる。

schnell3526 commented 2 years ago

評価実験

12の中国語のタスクを行なったとのこと。

事前学習コーパス

事前学習にあたりモデルのパラメタはgoogle BERTに従い、12層768次元、attention head sizeは12に設定しているとのこと。

知識グラフ

open-domain タスク

8種類の中国語タスク(単文分類、2文分類、固有表現認識、QAマッチング)で評価。

image image

Specific-domain tasks

image

Ablation studies

soft-positin indexやvisible matrixの影響について実験を行なっている。 知識グラフを挿入した場合は収束が早いそう、またvisible matrixはやはり有効とのこと。 🤔visible matrixのようなものはtransformerでグラフデータを表す場合によくみますがこの論文が先駆けだったのかな?

image
schnell3526 commented 2 years ago

感想

入力を調整するだけでドメイン特化タスクが有効に解けているのは実装の容易さという点で良いと感じた。

知識グラフの関係そのものを自然言語として入力文に埋め込むので、当然関係を表す単語はモデルの語彙に入っていないといけない。関係のラベルをどのように設計するかもミソになりそうだと感じる。

パラメタやデータセットが中華版Google Driveのようなので面倒臭い。