-
# Keywords
In-batch negative training
# TL;DR
Train better dense embedding model using only pairs of questions and passages without additional pretraining.
# Abstract
Open-domain question ans…
-
## 一言でいうと
オープンドメインのQAで必要な回答が含まれていそうな文書(Passage)の抽出について、既存のTF-IDFやBM25よりベクトル特徴の内積を使用した抽出の方が1~2割精度が改善するという研究結果。Q、Aは別個のBERTでEncodeされ、実行時は FAISSで近傍ベクトルを抽出する。
### 論文リンク
https://arxiv.org/abs/2004.…
-
## Problem statement
1. 적은 양의 (question, passage) pair로 retrieval 성능을 낼 수 있는 training scheme을 찾는다.
2. question과 passage의 내적으로 유사도를 비교할 수 있는 low-dimensional & continuous space에 임베딩한다.
## Baselin…
-
- https://arxiv.org/abs/1902.01718
- Wei Yang, Yuqing Xie, Aileen Lin, Xingyu Li, Luchen Tan, Kun Xiong, Ming Li, Jimmy Lin
- arXiv 2019
# memo
- Anserini retriever and the BERT reader
…
-
# Keywords
Pre-training for Retriever
# TL;DR
A method of jointly fine-tuning the retriever and reader in an end-to-end manner for the question-answer dataset after pre-training the retriever
…
-
## 一言でいうと
「アーティストAがXの次に出したアルバムは?」など多段階の情報収集が必要な質問に回答する研究。段階的にクエリを発行しQAとIRを繰り返す手法を採用している(最終的に、IRで収集した情報を総合して回答する)。既存の情報とのオーバーラップが多い=関連する(知識グラフ的に接続有)とし検索を行っていく
![image](https://user-images.githubu…
-
## 一言でいうと
マルチホップのQA(HotpotQAなど)で、再帰的なクエリにより高い精度を記録した研究。Query/PassageそれぞれにEncodeして内積により近さを取り抽出するのが基本だが、QueryのEncode対象に抽出結果をどんどん加えていく。
### 論文リンク
https://arxiv.org/abs/2009.12756
### 著者/所属機関
…
-
- https://arxiv.org/abs/2108.02765
- 2021
BERTのような大規模な変換モデルは、オープンドメインの質問応答(QA)における機械読解(MRC)で最先端の結果を達成しています。
しかし、変換モデルは推論のための計算コストが高く、音声アシスタントのようなアプリケーションのオンラインQAシステムに適用することは困難です。
そこで、本研究では、変換器のM…
e4exp updated
3 years ago
-
## Summary
[MKQA: A Linguistically Diverse Benchmark for Multilingual Open Domain Question Answering](https://aclanthology.org/2021.tacl-1.82.pdf)
> _"MKQA contains 10,000 queries sampled from t…
-
## 0. 論文
### タイトル
Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering
### 論文リンク
https://arxiv.org/abs/1711.05116
### 著者
Shuohang Wang, Mo Yu, Jing Jiang, Wei Zhang, Xiao…