arXivTimes / arXivTimes

repository to research & share the machine learning articles
https://arxivtimes.herokuapp.com/
MIT License
3.9k stars 201 forks source link

QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension #731

Open icoxfog417 opened 6 years ago

icoxfog417 commented 6 years ago

一言でいうと

質問回答のモデルを、CNN+Attentionのみで作成したという研究。これにより、学習/推論速度が向上し精度も高まった。入力ベクトルには単語以外に文字も使用し、畳み込みはCNN+Self Attention+全結合で行っている。また、データの水増しとして翻訳モデルを使用している(英語=>仏語=>英語に戻して水増し)

論文リンク

https://arxiv.org/abs/1804.09541

著者/所属機関

Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V. Le

投稿日付(yyyy/MM/dd)

2018/4/23

概要

新規性・差分

手法

結果

コメント

icoxfog417 commented 6 years ago

実装が公開 https://github.com/hengruo/QANet-pytorch