-
- https://arxiv.org/abs/2108.11591
- EMNLP 2021
読み順検出は、視覚的に豊かな文書(領収書やフォームなど)を理解するための礎となる。
残念ながら、十分な規模のデータセットにアノテーションを施すのは手間がかかりすぎるため、高度な深層学習モデルを活用した既存の研究はありませんでした。
私たちは、WORD文書の読み順がそのXMLメタデータに埋…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2109.02377
- 2021 EMNLP
最近のTransformerのバリエーションであるPerformerは、Transformerを直線的な注目メカニズムでより長いシーケンスに対応させています。
しかし、Performerは、絶対位置エンコーディングよりも優れている相対位置エンコーディングに対応していません。
この論文では、…
e4exp updated
3 years ago
-
Hi, I'm wondering what are the best settings for Hyper-Parameters α,β1, β2, γ in the overall objective?And why did you select β from{0.5,1,1.5,3,5,10,15} ?
-
Dear Zaid and ARBML team,
Thanks for your initiative to support Arabic people who are working on NLP and need guidance or would like to brainstorm.
Well, let me introduce myself, my name is Kha…
-
## 0. Paper
@inproceedings{wang-etal-2019-improving-back,
title = "Improving Back-Translation with Uncertainty-based Confidence Estimation",
author = "Wang, Shuo and
Liu, Yang and
…
a1da4 updated
4 years ago
-
**Describe the bug**
I got an invite to be reviewer of WiNLP. When checking the "conference" webpage, it hacked into chrome allowed notification from "brownsisteroftime", and send spam alerts. And it…
-
## 論文リンク
http://www.anlp.jp/proceedings/annual_meeting/2019/pdf_dir/B5-3.pdf
## 著者
○佐藤志貴 (東北大), 大内啓樹 (理研AIP/東北大), 井之上直也, 鈴木潤, 乾健太郎 (東北大/理研AIP)
-
2019년 이후 논문만 추천해주세요~
(2019년 논문부터 가능)
-
- https://arxiv.org/abs/2108.12284
- 2021 EMNLP
近年、ニューラルネットワークの系統的な一般化能力をテストするために、多くのデータセットが提案されている。
その中で、標準的なタスクから得られるデフォルトのハイパーパラメータを用いて学習されたベースラインTransformerは、劇的に失敗することが示されている。
ここでは、埋め込みのスケーリ…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2009.11264
- EMNLP 2020
トランスフォーマーは、多くのNLPタスクでリカレントモデルに取って代わりました。
しかし、異なる構文特性をモデル化する能力の違いについては、まだほとんど知られていません。
過去の研究では、LSTMは通常の言語で非常によく一般化し、対言語との密接な関係があることが示唆されている。
本研究では…
e4exp updated
3 years ago