Closed nogawanogawa closed 2 years ago
学習済みのBERTに同じ文を二度入力する。 このとき、Dropoutによって出力は微妙に異なる。
これは最小限のdata augmentationと考えられ、それを対応したい。
教師なしのケースでは、
教師ありのときは、矛盾するケースも含め、下記のようなロスを最小化するように学習する。
Semantic textual similarity tasksでの評価。
普通にBERTやRoBERTaを使うより優れいることを確認。
下図の左下に行くほど、まんべんなく分布して、かつ似た意味の文が近くに存在することを表す。 左下に位置しているので、提案手法はすごそう。
論文URL
https://arxiv.org/abs/2104.08821
著者
Tianyu Gao, Xingcheng Yao, Danqi Chen
会議
EMNLP 2021
背景
効果的な分散表現を獲得することは、それを用いたNLPタスクの精度を上げることに寄与する。
目的
効果的なContrastive Learningで効率よく、より良い分散表現を獲得したい
アプローチ
参考
https://tech.retrieva.jp/entry/2021/10/12/130850