Salman Khan, Munawar Hayat, Waqas Zamir, Jianbing Shen, Ling Shao
by Inception Institute of AI
投稿日付
CVPR 2019
1. どんなもの?
class imbalanced なタスクに対して、ベイズ推定の枠組みでクラスごと、及びサンプルごとの不確実性に着目し、unbiased なモデルを学習するための新たな loss を提案した。
Loss は各クラスごとの不確実性を考慮してクラス間のマージンを最大化するようになっているのに加えて、各サンプルを多変量ガウス分布を使用してモデリングし、その二次モーメントまで考慮してクラス境界を調整している。
2. 先行研究と比べてどこがすごい?
ベイズによる不確実性の推定の枠組みを class imbalanced な問題に応用した。
クラス間だけでなくサンプルの不確実性も考慮した決定境界になっている。
3. 技術や手法のキモはどこ?
Bayesian Uncertainty Estimates を行うために、dropout を含むネットワークが Gaussian Process に近似できることを利用している
二次モーメントが大きい(=不確実性が高い)と logits が小さくなるようにマージンを定義し、Softmax Loss に重みを加える。
サンプルごとについても不確実性を考慮している
サンプルが誤分類されてしまう確率を計算し、誤分類される確率が高いと logits が小さくなるように Softmax Loss に重みとしてかける。
4. どうやって有効だと検証した?
顔検出をはじめとした6つのデータセットで実験を行った。データセットも異なる特徴のもののうえ、ベースラインモデルとしてもモデルが違うもの、Augmentation を使っているもの、他の class imbalanced なタスクのための loss を使っているものなど多くとそれぞれ目的を持って比較し、そのほとんどで最も良い性能となっている。
5. 議論はある?
論文内で言及されている議論はない。
Affinity Loss の論文は現在の SOTA として引用しているが比較はしていない。
6. 次に読むべき論文は?
Related Works として挙げられている代表例
[CVPR2019] Class-Balanced Loss Based on Effective Number of Samples
Yin Cui, Menglin Jia, Tsung-Yi Lin, Yang Song, Serge Belongie
0. 論文
タイトル
Striking the Right Balance with Uncertainty
リンク
http://openaccess.thecvf.com/content_CVPR_2019/papers/Khan_Striking_the_Right_Balance_With_Uncertainty_CVPR_2019_paper.pdf https://arxiv.org/abs/1901.07590
著者
Salman Khan, Munawar Hayat, Waqas Zamir, Jianbing Shen, Ling Shao by Inception Institute of AI
投稿日付
CVPR 2019
1. どんなもの?
class imbalanced なタスクに対して、ベイズ推定の枠組みでクラスごと、及びサンプルごとの不確実性に着目し、unbiased なモデルを学習するための新たな loss を提案した。 Loss は各クラスごとの不確実性を考慮してクラス間のマージンを最大化するようになっているのに加えて、各サンプルを多変量ガウス分布を使用してモデリングし、その二次モーメントまで考慮してクラス境界を調整している。
2. 先行研究と比べてどこがすごい?
ベイズによる不確実性の推定の枠組みを class imbalanced な問題に応用した。 クラス間だけでなくサンプルの不確実性も考慮した決定境界になっている。
3. 技術や手法のキモはどこ?
4. どうやって有効だと検証した?
顔検出をはじめとした6つのデータセットで実験を行った。データセットも異なる特徴のもののうえ、ベースラインモデルとしてもモデルが違うもの、Augmentation を使っているもの、他の class imbalanced なタスクのための loss を使っているものなど多くとそれぞれ目的を持って比較し、そのほとんどで最も良い性能となっている。
5. 議論はある?
論文内で言及されている議論はない。 Affinity Loss の論文は現在の SOTA として引用しているが比較はしていない。
6. 次に読むべき論文は?
Related Works として挙げられている代表例