long8v / PTIR

Paper Today I Read
19 stars 0 forks source link

[157] LeGrad: An Explainability Method for Vision Transformers via Feature Formation Sensitivity #173

Open long8v opened 2 months ago

long8v commented 2 months ago
image

paper, code

TL;DR

Details

image

Methodology

ViT의 최종 output을 아래와 같이 표현

image

여기서 $\bar{z}$은 pooled representaion (cls pool, attention pool) 이 중 우리의 target class $c$에 대한 activation을 $s$라고 함. 이에 대한 attention map을 $A$라고 할 때 attention map에 대하여 미분하여 아래와 같은 map을 만듦

image

ReLU를 취하고 layer / head / patch(n) 별로 평균을 구함.

image

cls 토큰을 제외하고 다시 reshape을 하고 min-max normalization을 해줌

image

이런 식으로 모든 레이어의 $s^{l}$를 구하고 이에 대한 미분으로 map을 만들어줌

image image

이걸 레이어별로 matrix multiplication이 아니라 summation을 해줌

image

Chefer 21과 뭐가 다른가? https://github.com/long8v/PTIR/issues/159#issuecomment-1933470637

Result

image

Perturbation result

image

Layer Ablation

image

작은 모델의 경우 마지막 소수의 레이어만 쓰는게 좋았는데 모델 규모가 커질 수록 더 많은 레이어를 사용해야 함

image

ReLU ablation

image

ReLU를 키는게 좋았음. 안킨다고 엄청 나빠지진 않음.

Qualitative

image
long8v commented 2 months ago
image