Open cfiken opened 3 years ago
automatic readability assessment (ARA) のタスクでは、明示的に作成する言語的特徴は Deep Learning による手法では一般的に用いない。本研究では、言語的特徴を構文の密な embedding で表現し、更にその特徴同士の関連を相関グラフを用いて表現を学習、似た特徴が似た embedding となるようにした上で BERT などの言語モデルの出力と concat し、推論を行う。 実験にて、BERTのみのモデルよりも精度の改善を確認。
言語的特徴をそのまま使うのではなく、embedding して相関からグラフを作成、更に表現を洗練することで精度改善。
複数モデルと比較し、英語や中国語のベンチマークにおいて精度を改善。
0. 論文
1. どんなもの?
automatic readability assessment (ARA) のタスクでは、明示的に作成する言語的特徴は Deep Learning による手法では一般的に用いない。本研究では、言語的特徴を構文の密な embedding で表現し、更にその特徴同士の関連を相関グラフを用いて表現を学習、似た特徴が似た embedding となるようにした上で BERT などの言語モデルの出力と concat し、推論を行う。 実験にて、BERTのみのモデルよりも精度の改善を確認。
2. 先行研究と比べてどこがすごい?
言語的特徴をそのまま使うのではなく、embedding して相関からグラフを作成、更に表現を洗練することで精度改善。
3. 技術や手法のキモはどこ?
4. どうやって有効だと検証した?
複数モデルと比較し、英語や中国語のベンチマークにおいて精度を改善。
5. 議論はある?
6. 次に読むべき論文は?