eubinecto / k4ji_ai

4명의 김씨, 한명의 진씨, 한명의 임씨가 모여서 인공지능을 공부하고 있습니다.
13 stars 0 forks source link

Why Self-attention #28

Open eubinecto opened 3 years ago

eubinecto commented 3 years ago

이 섹션에서 저자는,

다음과 같이 정의된 문제에 대하여:

다음의 3가지 항목을 기준으로:

  1. complexity per layer
  2. sequential operations
  3. maximum path length

    RNN, CNN과 self-attention 메커니즘을 비교하고 있습니다.

다음은 그런 비교를 요약해놓은 테이블.

table 1
image

각 항목 별로, "why attention"인지를 설명할 수 있다면 이 부분은 제대로 이해했다고 볼 수 있을 것 같네요.

eubinecto commented 3 years ago

Complexity per layer

why self attention?

eubinecto commented 3 years ago

Sequential operations

why self attention?

eubinecto commented 3 years ago

Maximum path length

why self attention?

eubinecto commented 3 years ago

Bonus - interpretable models

figure 3
image