Open uhhyunjoo opened 2 years ago
link | |
---|---|
paper | Cross Modal Retrieval with Querybank Normalisation |
code | papers with code |
etc | official web site |
hubness problem
존재 : a small number of gallery embeddings 가 many queries 의 the nearest neighbours 를 형성한다...Querybank Normalisation (QB-Norm)
을 제안한다.Dynamic Inverted Softmax
를 제안한다.본 논문에서는, 현존하는 방법들이 두 가지 challenges 를 겪고 있다는 것을 발견했다.
1번 챌린지 해결하기 위해 -> 실험을 통해, QB-Norm 이 effective 해지기 위해서 test querys 에 concurrent access 하는 것이 필요하지 않다는 것을 보여줬다.
2번 챌린지 해결 위해 -> 새로운 normalisation 메소드, Dynamic Inverted Softmax (DIS) 제안 했다. (QB-Norm 프레임워크 안에서 하나의 모듈로 작동)
주어진 데이터 : modality m_q 인 a query q, modality m_g 인 a gallery of samples
cross modality retrieval 의 목표 : query 에 얼마나 잘 match 되는지에 따라 gallery samples 들에게 rank 를 매기는 것이다.
cross modal embeddings : 각 modality 에 있는 q 와 g 를, 학습한 a pair of encoder 를 이용하여 a shared real-embedding space (R^C) 로 위치하게 만든다. 이때, 인코딩된 것들은 q 와 g 가 비슷하면 거리 상 가깝게 위치하게 된다.
학습 데이터 T : 서로 corresponding 하는 query and gallery samples {(q_i, gi)}^T{i = 1} 를 이용하여 embeddings 를 학습한다.
본 논문에서는 cross modal retrieval 중, natural language queries 를 사용하는 tasks 에 집중한다.
이유1 : 이러한 tasks 들은 hubness 를 완화하는 것에 대해 limited attention 을 받았다.
이유2 : hubness 는 high intrinsic dimensionality 를 가진 embeddings 에서 널리 퍼져있음을 보여주고 있다.
그래서, natural language queries 가 individual words 보다 더 complex 한 conceps 이니까, natural alanguage queirs 가 더 greater 한 intirinsic dimensionality 를 보여줄 것으로 예상된다. 이를 통해, hubness mitigation 으로부터 더 이득을 볼 것이라는 potentional 이 있다.
hubness
를 갖는 경향이 있다는 것은 꽤 오랫동안 관찰되어 왔다
Querybank Normalisation frameworks (QB-Norm) : 두 가지 구성요소로 구성됨
querybank construction
과 similarity normalisation
에서 여러 방법을 선택하는 것을 허용한다.Globally-Corrected (GC) retrieval
querybank construction
에 적용될 수 있다. : test queries 의 full set 인 Q 로 부터, querybank 를 constructing 함으로써!Cross-Domain Similarity Local Sacaling (CSLS)
Inverted Softmax (IS)
Dynamic Inverted Softmax (DIS)