dhkim0225 / 1day_1paper

read 1 paper everyday (only weekday)
54 stars 1 forks source link

[76] Visual Attention Network (VAN) #105

Open dhkim0225 opened 2 years ago

dhkim0225 commented 2 years ago

paper code

image large kernel attention (LKA) 제안, SOTA 달성

Large Kernel Attention (LKA)

엄청 간단한 아이디어다. 아래 그림은 13x13 conv 를 나눈 그림이다. 노란색이 center point. kernel 의 중심이다. 그림을 보면 알 수 있지만, receptive field 는 동일하다. image

그래서 요 block 을 이용해서 self-atttention 역할을 해내자는 논문. image image

Visual Attention Network (VAN)

이 block 을 어디에다 넣을까 그냥 attention 부분을 전부 교체해 버린다. image

downsample 을 넣어서 hierarchical 한 구조로 만들고, 다음과 같이 모델군 구성 image image

Result

ImageNet

image

COCO Detection

image image

ADE20K Segmentation

image

Ablation

image