-
https://github.com/winnerineast/models-onnx/tree/master/text/machine_comprehension/bidirectional_attention_flow
https://github.com/winnerineast/models-onnx/tree/master/text/machine_comprehension/bert…
-
## 一言でいうと
SQuADで最高精度を更新した論文。文字・単語・フレーズ、その上に文書/クエリの関連(Attention)、さらにそれらの関連、出力、という階層型のモデル。Attentionとencodeの役割分担が肝とのこと。
### 論文リンク
https://arxiv.org/abs/1611.01603
### 著者/所属機関
Minjoon Seo, …
-
实验环境:python3.5 paddlepaddle-gpu==1.0.0.post87 ubuntu16.04 GPU 使用 两个1080Ti
执行 `sh run.sh --train --pass_num 10` 时, 在执行到`2018-12-17 11:15:38,728 - brc - INFO - Training the model...
` 时 报错如下
```bash…
-
## 0. 論文
### タイトル
BI-DIRECTIONAL ATTENTION FLOW FOR MACHINE COMPREHENSION
### 論文リンク
https://arxiv.org/pdf/1611.01603.pdf
### 著者
Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hananneh Hajishirzi…
-
Bidirectional Attention Flow for Machine Comprehension
Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hannaneh Hajishirzi, ICLR 2017
https://arxiv.org/abs/1611.01603
![1](https://user-images.githu…
-
https://arxiv.org/abs/1606.05250
SQuAD: 100,000+ Questions for Machine Comprehension of Text
Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, Percy Liang
Standford
We present the Stanford…
-
## 一言でいうと
Microsoftが公開した質問応答のデータセット(10万件)。質問/回答が、人間のものである点が特徴(Bing=検索エンジンへの入力なのでどこまで質問っぽいかは要確認)。回答はBingの検索結果から抜粋して作成。
### 論文リンク
https://arxiv.org/pdf/1611.09268v1.pdf
### 著者/所属機関
Tri Ng…
-
Machine Comprehension Using Match-LSTM and Answer Pointer
Shuohang Wang, Jing Jiang, https://arxiv.org/abs/1608.07905
## 処理ステップ
0. PassageとQueryは何らかのEmbeddingをする(GloveとかWord2vecとか)
1. LSTM…
-
# Digest – A Survey on Machine Reading Comprehension: Tasks, Evaluation Metrics, and Benchmark Datasets | Yu Yang’s Research Log
A Survey on Machine Reading Comprehension: Tasks, Evaluation Metrics, …
-
# URL
- https://arxiv.org/abs/1611.09830
# Affiliations
- Adam Trischler, N/A
- Tong Wang, N/A
- Xingdi Yuan, N/A
- Justin Harris, N/A
- Alessandro Sordoni, N/A
- Philip Bachman, N/A
- K…