long8v / PTIR

Paper Today I Read
19 stars 0 forks source link

[81] Equalization Loss for Long-Tailed Object Recognition #90

Open long8v opened 1 year ago

long8v commented 1 year ago
image

paper, code

TL;DR

Details

Motivation

image

오른쪽으로 갈수록 rare한 클래스인데 negative sample의 gradient가 positive 보다 높아지는 영향이 있음

Equalization Loss Formulation

image

image

이때 $\lambda$는 아래의 Tail Ratio(TR)을 보고 고름 => 절대적으로 크면 좋고 낮으면 좋고는 아니고 그냥 값에 따라 frequent <=> rare 성능이 달라짐. image

Softmax Equalization Loss Formulation

image image

image

Result

image

추가하면 성능은 전체적으로 다 좋아짐!

image

다른 Long-tail Loss와 비교했을 때는 전체적으로 좋아지지만 rare, frequent에 대해서는 sampling 방법보다는 안좋음 Focal 보다는 확실히 좋음!

Ablation

image tail ratio가 높아지면 frequent한 Class에 대해 잘하고 rare는 점점 떨어지는 모습 -> $\lambda$가 완전 하이퍼파라미터임

image

background이면 1로 바꿔주는 E(r)에 대한 ablation. rare가 안좋아지넹