-
https://codeload.github.com/emorynlp/reading-comprehension/tar.gz/reading-comprehension-2.0 throws a 404 not found error. Please update the link in README.md
-
There is a new approach from AliBaba described here.
[ALIBABA AI BEATS HUMANS IN READING-COMPREHENSION TEST](https://www.alizila.com/alibaba-ai-beats-humans-in-reading-comprehension-test-again)
[…
-
## 0. 論文
[Knowledgeable Reader: Enhancing Cloze-Style Reading Comprehension with External Commonsense Knowledge](http://aclweb.org/anthology/P18-1076)
Todor Mihaylov and Anette Frank
## 1. どんなもの?…
-
https://godweiyang.com/2019/03/07/reading-comprehension/
闲来无事,膜拜一下巨佬的毕业论文,随手记一记,很不详细,随便看看就好,就按照论文的篇章结构来了。
论文地址:Neural Reading Comprehension and Beyond
Introduction
Motivation为了理解一段文本,前人主要对如下几大N…
-
# Digest – A Survey on Machine Reading Comprehension: Tasks, Evaluation Metrics, and Benchmark Datasets | Yu Yang’s Research Log
A Survey on Machine Reading Comprehension: Tasks, Evaluation Metrics, …
-
**Source**
- *paper*: `Looking Beyond the Surface: A Challenge Set for Reading Comprehension over Multiple Sentences
`
- *paper-url*: `https://www.aclweb.org/anthology/papers/N/N18/N18-1023/`
-…
-
https://arxiv.org/pdf/2202.01764.pdf
-
## 一言でいうと
DeepMindの教師なしによるQA回答(下)の追試。これは、文章中の固有表現をentityタグに置換して学習し、QAをentityの穴埋め問題として解くという手法。
http://arxiv.org/abs/1506.03340
このタスクにおいて、必要な言語理解の程度、また精度上の上限を明らかにするのが本追試の目的。
### 論文リンク
ht…
-
## 一言でいうと
質問回答のモデルを、CNN+Attentionのみで作成したという研究。これにより、学習/推論速度が向上し精度も高まった。入力ベクトルには単語以外に文字も使用し、畳み込みはCNN+Self Attention+全結合で行っている。また、データの水増しとして翻訳モデルを使用している(英語=>仏語=>英語に戻して水増し)
### 論文リンク
https://arx…
-
## 一言でいうと
QAなどの読解タスクで、複数タスクを並列で学習させる手法の提案。どのタスクをどれだけ学習するかの配分率を決めるのに、言語モデルを使用している。質問の言語モデル、回答は短すぎるので長さの分布を作り、ターゲットタスクとは傾向が異なるものに重みを振るようにしている
### 論文リンク
https://arxiv.org/abs/1809.06963
### 著…