Open cfiken opened 5 years ago
まず Hard Prototype Mining については勉強不足で分からなかったのと、今回知りたかったところではないので一旦分かってないまま読んだ。 AdaM Softmax loss は CosFace にそのまま取り入れて精度は上がっているので効果はありそうだが、ArcFace と直接比べてはいないのはちょっと残念(実験で比べられているのは AdaptiveFace で、ロスだけでなく HPM と ADS も入っている)。 比較するときに純粋に損失関数だけで比較したいところ。 ArcFace とも組み合わせられるはずなので、上がるのかどうか試したい。
加えて、ハイパラの m を決めなくて良くなった代わりに結局 λ を決めないといけないので、もっと楽したい。
HPM と ADS については、そりゃ効果あるだろうという感じだが近年の進歩的にはどんどんシンプルに精度が上がる方向に来てるように思うので、ちょっとめんどくさく感じる。
0. 論文
タイトル
AdaptiveFace: Adaptive Margin and Sampling for Face Recognition
リンク
http://openaccess.thecvf.com/content_CVPR_2019/html/Liu_AdaptiveFace_Adaptive_Margin_and_Sampling_for_Face_Recognition_CVPR_2019_paper.html https://github.com/haoliu1994/AdaptiveFace コード公開予定とのことだがまだない (2019/09/07)
著者
Hao Liu, Xiangyu Zhu, Zhen Lei, Stan Z. Li
投稿日付
CVPR 2019
1. どんなもの?
マージン付 Softmax Loss の提案により顔認識タスクの性能は大きく改善されたが、各クラスの分布を表現するサンプル数が十分にあるという前提があった。 マージンはクラスによって適応的に決められるべきという考え方で、Adaptive Margin Softmax という新しい損失関数を提案。 また学習時のサンプリングにも Hard Prototype Mining と Adaptive Data Sampling を導入し、これらをまとめて AdaptiveFace として提案した(詳細後述)。 LFW, LFWBLUFR, MegaFace で実験し、SOTA のスコアを更新した。
2. 先行研究と比べてどこがすごい?
各クラスに入れるマージンを learnable parameters とした softmax loss を提案した。 損失関数だけでなく、適応的なサンプリングや hard prototype mining を組み合わせた手法を提案した。
3. 技術や手法のキモはどこ?
4. どうやって有効だと検証した?
MegaFace Challenge 1, LFW, LFW BLUFR で実験。ベースラインは SoftMax, SphereFace, CosFace, ArcFace。 すべてで AdaptiveFace が最も高いスコアを獲得。 表は MegaFace Challenge 1 のケース。
Ablation study も行い、 CosFace のベースラインに対してそれぞれの手法だけでも効果があることを示している。
5. 議論はある?
6. 次に読むべき論文は?