Open magicpieh28 opened 6 years ago
Author : Wenya Wang, Sinno Jialin Pan, Daniel Dahlmeier, Xiaokui Xiao Link : http://www.aaai.org/Conferences/AAAI/2017/PreliminaryPapers/15-Wang-W-14441.pdf
aspect用・opinion用のアテンション別に用意し、マルティレイヤを使いaspect単語とopinion単語を同時に抽出してみようという論文。
Deep Learningベースの手法の場合、各tokenごとにhigh-levelの表現を学習させるために分類器を訓練。 しかし、このためにparserの分析結果(構文論的・意味構造的知識)をエンコードする必要があが、計算機のparserでは、人間の生成した文の構文的・意味構造的知識を正確に分析するのは不可能。 また、時間がかかりすぎる。
parserや付加的な言語知識を必要としないend-to-endモデル(CMLA)を作る。 特に、アテンションネットワークをマルチレイヤにし、1つのレイヤ当たり2つのアテンションをかける。これにはtensor演算子を使用する。 アテンションはaspect用とopinion用に分かれていて、aspect単語とopinion単語の情報を相互学習する。
左のフィギュアがモデル。右のフィギュアはt+1番目のレイヤのprototypeベクトル。
SemEval-14 Restaurant SemEval-14 Laptop SemEval-15 Restaurant
SemEval-14 RestaurantとSemEval-14 Laptopは(Wang et al. 2016)からのopinion単語をラベリング。 SemEval-15 Restaurantは、すべてのopinion単語をラベリング。 レストランドメインにはYelp Challenge datasetをword2vecかけたものを適用し、LaptopドメインにはAmazon Reviewsのelectronic domainを用いた。 レストランドメインのワードエンベディングの次元数:200 Laptopドメインのワードエンベディングの次元数:150 レイヤ当たり隠れユニット数(3つのデータセットに同一に適用):50
tensor演算子を使用し、parserと付加的言語知識を必要としないモデルを作った。 マルチレイヤは間接的意味関係を抽出することに役立つ。
https://github.com/happywwy/Coupled-Multi-layer-Attentions
about this paper
Author : Wenya Wang, Sinno Jialin Pan, Daniel Dahlmeier, Xiaokui Xiao Link : http://www.aaai.org/Conferences/AAAI/2017/PreliminaryPapers/15-Wang-W-14441.pdf
aspect用・opinion用のアテンション別に用意し、マルティレイヤを使いaspect単語とopinion単語を同時に抽出してみようという論文。
what are problems they want to solve?
problems
Deep Learningベースの手法の場合、各tokenごとにhigh-levelの表現を学習させるために分類器を訓練。 しかし、このためにparserの分析結果(構文論的・意味構造的知識)をエンコードする必要があが、計算機のparserでは、人間の生成した文の構文的・意味構造的知識を正確に分析するのは不可能。 また、時間がかかりすぎる。
how to solve
parserや付加的な言語知識を必要としないend-to-endモデル(CMLA)を作る。 特に、アテンションネットワークをマルチレイヤにし、1つのレイヤ当たり2つのアテンションをかける。これにはtensor演算子を使用する。 アテンションはaspect用とopinion用に分かれていて、aspect単語とopinion単語の情報を相互学習する。
model architecture
左のフィギュアがモデル。右のフィギュアはt+1番目のレイヤのprototypeベクトル。
experiment
dataset
SemEval-14 Restaurant SemEval-14 Laptop SemEval-15 Restaurant
setting
SemEval-14 RestaurantとSemEval-14 Laptopは(Wang et al. 2016)からのopinion単語をラベリング。 SemEval-15 Restaurantは、すべてのopinion単語をラベリング。 レストランドメインにはYelp Challenge datasetをword2vecかけたものを適用し、LaptopドメインにはAmazon Reviewsのelectronic domainを用いた。 レストランドメインのワードエンベディングの次元数:200 Laptopドメインのワードエンベディングの次元数:150 レイヤ当たり隠れユニット数(3つのデータセットに同一に適用):50
result
conclusion
tensor演算子を使用し、parserと付加的言語知識を必要としないモデルを作った。 マルチレイヤは間接的意味関係を抽出することに役立つ。
what's next
code
https://github.com/happywwy/Coupled-Multi-layer-Attentions