Closed shunk031 closed 6 years ago
http://www.cs.cmu.edu/~./hovy/papers/16HLT-hierarchical-attention-networks.pdf
Attentionを用いてより重要な単語・文に注目させ、同時に文書の階層的構造を捉えることができるHierarchal Attention Network (HAN) を提案している。機械翻訳や画像キャプションで用いられているAttentionをGRUでエンコードしたembeddingに対して適用し、複数データセットに対して良い性能を示した
paper summary
http://www.cs.cmu.edu/~./hovy/papers/16HLT-hierarchical-attention-networks.pdf