long8v / PTIR

Paper Today I Read
19 stars 0 forks source link

[27] Cross-Domain Few-Shot Classification via Learned Feature-Wise Transformation #32

Open long8v opened 2 years ago

long8v commented 2 years ago
image

paper, code

TL;DR

problem : few-shot classification은 같은 domain(=ImageNet 내에서 unseen label을 예측)에서는 잘 작동되지만, 다른 도메인으로 few-shot을 할 경우 잘 작동되지 않음(ImageNet으로 훈련된게 CUB 데이터로 few-shot test를 하면 잘 안나옴) solution : feature encoder에 feature-wise transformation layer(affine 변환)를 추가하였고 이때의 하이퍼파라미터는 learning-to-learn 방법론으로 학습됨. result : MatchingNet, RelationNet, Graph Neural Network에 위의 feature-wise transformation을 적용했을 때 generalization 성능이 좋았음.

details

3.1. Preliminaries

3.2. feature-wise transformation layer

image

3.3 Learning the feature-wise transformation layers(=FT layer)

각 training iter t 에서 seen domain 중 sampling해서 pseudo-seen domain(ps)과 pseudo-unseen domain(pu)를 만든다. FT layer에 대해 파라미터를 적용하여 feature encoder와 metric function을 적용하고 seen domain task에 대해서만 loss를 구한다.

image

generalization을 측정하는 단계에서는 1) 모델의 FT 레이어를 제거하고 2) pseudo-unseen task에 대해서 업데이트 된 모델의 classification loss를 구하여 계산한다. 즉,

image

마지막으로, 위의 loss는 FT 레이어의 효율성을 반영하므로, 하이퍼 파라미터를 아래와 같이 업데이트 한다.

image

즉 metric-based model과 feature-wise transformation layer(FT)는 학습단계에서 함께 학습된다.

Experimental Results