Open AtsukiOsanai opened 1 year ago
STRとHTRの両者に強いモデルを構築するために、Knowledge Distillationを用いた学習方法を提案。STR、HTR双方の教師モデルを作っておき、これに対し両ドメインを一括で扱う生徒モデルをKDの枠組みで学習させる。KDは出力logitだけでなく中間層でも行う。
Text is Text, No Matter What: Unifying Text Recognition using Knowledge Distillation
Information
Summary
サマリ図表
どんな論文か?
STRとHTRの両者に強いモデルを構築するために、Knowledge Distillationを用いた学習方法を提案。STR、HTR双方の教師モデルを作っておき、これに対し両ドメインを一括で扱う生徒モデルをKDの枠組みで学習させる。KDは出力logitだけでなく中間層でも行う。
新規性
結果
その他(なぜ通ったか?など)