boost-devs / peer-session

🚀 부스트캠프 AI Tech 1기 U-Stage 4조 피어 세션 자료/질문 모음 (archived)
8 stars 2 forks source link

[히스] 벡터간 유사도와 내적 #21

Closed Heeseok-Jeong closed 3 years ago

Heeseok-Jeong commented 3 years ago

🙌 질문자


❓ 질문 내용


bsm8734 commented 3 years ago

cosine similarity를 찾아보시면 좋을거같아요!


유사도는 다차원 공간의 두 점의 거리를 나타내는데, 이 거리가 짧을수록 유사도가 높다고 할 수 있습니다. 떨어져 있는 두 벡터보다는, 비슷한 위치에 있는 두 벡터가 확실히 더 비슷하겠죠! 따라서, 벡터간 유사도는 벡터간 거리로 나타낼 수 있습니다. 벡터 간의 거리를 재는 방식이 여러 개인 만큼, 유사도를 여러 방법으로 구할 수 있습니다!

사실 우리가 배웠던 L1-norm과 L2-norm은 하나의 식에 인자를 대입한 값으로 나타낼 수 있습니다.

image (➡ Minkowski Distance)

r = 1: City Block Distance(= Manhattan, L1-norm) - (r = 1)차원 데이터간의 거리를 측정하기에 적당 r = 2: Euclidean Distance(=L2-norm) - (r = 2)차원 거리를 측정하기에 적당 등등

이러럼 L1, L2 norm이 단순히 거리를 고려하는 거리(유사도)라면, 내적의 식은 cosine similarity의 식과 동일하며

image

내적(코사인유사도)는 방향과 길이를 모두 고려할 수 있기에 사용됩니다! ➡ 방향: 코사인에 들어간 θ에 의해서!

라고 알고있습니당...! 혹시 잘못알고있는부분이 있다면 알려주세요 !😀

mj950425 commented 3 years ago

저도 궁금해서 찾아봤는데 코사인 유사도 뿐 아니라 이러한 방식도 있다고 합니당 가장 비슷한 문서는 아마 B,C인거 같은데 오타같습니다!


image https://www.aitimes.kr/news/articleView.html?idxno=17314

Heeseok-Jeong commented 3 years ago

감사합니다 여러분! 이해됐어요~.~