egolearner / paper-note

7 stars 2 forks source link

Product Quantization for Nearest Neighbor Search[4] #19

Open egolearner opened 4 years ago

egolearner commented 4 years ago

PAMI 2011

https://lear.inrialpes.fr/pubs/2011/JDS11/jegou_searching_with_quantization.pdf

论文主要有两个贡献

  1. 提出了product quantization的方法,从对向量做量化改为向量分段后做量化,解决了前者需要特别大的码表及内存需求高的问题。类比来说,1000=101010,从存储1000个centroid变为了存储3组各10个centroid。
  2. 使用倒排索引。

1. Introduction

为了降低量化噪音,centroid个数需要足够大,比如2^64。带来的问题是:需要的样本大,算法复杂,内存需求高。

2. Product Quantization

image

论文中指出,位数固定下,使用带多个中心点的少量的子量化器比带少量中心点的多个子量化器效果要好。给了一个经验数据是,256个中心点,分为8组。

3. 检索

两种距离计算方法 。

image

对称距离(SDC):字典和检索向量都做量化。 image

其中,预先计算好每组子量化器中各个中心点的距离,计算两个量化的子向量的距离时只需要查表。

非对称距离(ADC):只有字典做量化。精度高于SDC,所以论文推荐用ADC。

image

其中,在线先计算好检索向量到每个中心点的距离,即$d(uj(x), c{j,i})^2$,j为组索引,i为中心点的索引,后续只需要查表。

4 非穷举检索

image

先计算粗粒度量化器,然后计算原始值与量化值的残差

$$r(y) = y - q_c(y)$$

然后对残差做product quantization。相比于直接对原始的向量做乘积量化,误差更小。直观的解释是,残差相比原始的向量分布更加集中,因此误差更小。误差更小应该有两个原因:

索引算法

image

检索算法

检索向量x与其最近的邻居可能量化到不同的中心点,因此需要对w>1组索引到的向量做计算。

image

egolearner commented 4 years ago

参考资料

egolearner commented 4 years ago

PQ的核心在于将高维向量空间分解为子空间的笛卡尔积,然后分别对子空间做量化。