Open takutak opened 4 months ago
モデル(元データから表現空間への写像機構)は次のようになる。
無限混合ガウスモデルに関しては、次のような生成過程を仮定する。(棒折り過程)
無限混合ガウスモデルの下で、尤度は次のように表現される。 $$p(X) = \int d\eta \int dM \int d\beta \sum{k=1}^{\infty} p(X,k|\eta, M, \beta) p(\eta, M, \beta)$$ これは次の様に展開できる。 $$p(X) = \int d\eta \int dM \int d\beta p(\eta)p(M)p(\beta)\times\prod{n=1}^N\left(\sum_{k=1}^{\infty} p(k|\eta)p(x_n|\mu_k, \beta_k^{-1}I) \right)$$
クラスタリングは、適切な特徴量を採用することが性能に直結する。NNでクラスタリングを行う場合、NNは元データの空間から表現空間への写像として用いられた。NNによって、表現空間へデータを写し、この表現空間内でクラスタリングを実行する。既存手法は、このように距離学習とクラスタリングを別個に実行するため、得られた表現がクラスタリング手法に適していない可能性があった。
この研究ではメタ学習により、NNが直接的に期待クラスタリング性能を向上させるように学習を行う。
Contribution
記号
モデルの説明