long8v / PTIR

Paper Today I Read
19 stars 0 forks source link

[25] Intriguing Properties of Vision Transformers #27

Open long8v opened 2 years ago

long8v commented 2 years ago

image

paper, code

Abstract

ViT의 multi-head self-attention은 이미지 패치들의 시퀀스들을 유연하게 참조한다. 중요한 점은 그러 유연함이 자연이미지에서의 nuisances(방해물)을 어떻게 잘 이용하냐이다. 우리는 다양한 실험들을 통해 CNN과 비교하여 ViT류들이 어떤 특성을 가지고 있는지 실험해보았다. (a) 트랜스포머는 심한 occlusion, perturbation, domain shift에 강하다. 가령 이미지의 80%를 occlusion으로 제거해도 60%의 top-1 accuracy를 달성했다.

image

(b) (a)는 texture bias때문이 아니고, ViT가 local texture에 덜 bias 되었기 때문이라고 보았다. shape-based feature를 encode하도록 잘 학습하면, 이전 연구에서 밝혀지지 않았지만 인간의 능력과 유사한 정도의 shape recognition 능력이 있었다. (c) ViT를 shape 표현을 encode하게 사용하면, pixel-level의 supervision 없이도 정확한 semantic segmentation을 할 수 있었다. (d) 하나의 ViT모델에서 Off-the-shelf 피쳐를 사용하는 것은 다른 피쳐 앙상블을 만드는데 사용될 수 있었고, 더 높은 정확도를 달성했다.
우리는 ViT의 유연하고 다이나믹한 receptive field가 ViT의 효과적인 feature임을 밝혔다.

Intriguing Properties of Vision Transformer

Are Vision Transformer Robust to Occlusions

Occlusion Modeling :

이미지 x가 주어지고 label y가 들어오면 이미지 x는 N개의 patch sequence로 표현된다. 우리는 이 N개중에 M개의 이미지 패치를 골라서 0으로 바꾸어 x'를 만드는 방법(논문에서 PatchDrop로 부름)을 선택했다. 이 PatchDrop을 아래 세개의 종류로 적용을 했다.

image

Robust Performance of Transformer Against Occlusions

ViT Representations are Robust against Information Loss

occlusion에 대한 모델의 반응을 더 잘 파악하기 위하여, 다른 레이어의 각 헤드들의 어텐션을 시각화해보았다. 초반의 레이어에서는 모든 영역을 attend하지만 깊어질 수록 이미지에서 occlude되지 않은 영역에 집중하는 것을 볼 수 있었다.

image

위에서 말한 레이어가 깊어질 때 달라지는 변화에 대해 token invariance가 있는지 확인 해보고자 한다. 우리는 원래 이미지와 occlude된 이미지에 대해 feature(또는 token)간의 correlation coefficient를 계산하였다. ResNet50의 경우에, logit 레이어 전의 feature를 사용했고, ViT의 경우 마지막 transformer block의 class 토큰을 가져왔다. ResNet에 비해 ViT의 class token은 더 강건했다.(=correlation이 높았다) 이러한 성향은 비교적 작은 object를 가진 다른 데이터셋에서도 동일했다.

image

Shape vs Texture: Can Transformer Model Both Characteristic?

Does Positional Encoding preserve the global image context?