-
## Abstract
- propose Vector Quantised Variational AutoEncoder (VQ-VAE)
- generative model that learns discrete representations
- prior is learnt rather than static
- solves the issue of "po…
-
## 一言でいうと
タスクをまたぐ潜在表現を獲得させる試み。通常のVAEに、クラス識別を行う分布を併せて学習する。上層は新タスク(既存のモデルでは精度が低いサンプル)に適応したコンポーネントを動的に追加していき、(タスク共通と学習する)下層は破壊的忘却を防ぐため生成モデルを併用した学習を行う。
![image](https://user-images.githubusercontent…
-
## 一言でいうと
VAEを利用して離散の潜在表現を学習する試み。Encoderの出力に近いベクトルを埋め込み空間から検索し、そこからDecoderで復元する。分布はEncoderの出力に近いところに1、それ以外が0であるone-hotな分布として定義される。これにより離散表現を獲得できるだけでなく、Decoderが強力すぎる場合に潜在表現が学習されない問題を克服している。
![ima…
-
-
Thank you very much for your work. Can you provide visualization code?
-
## Background
New learnings point to the MyVA411 number not being appropriate for Veterans/claimants to call and understand if they have current representation. This means we need to replace the numb…
-
- Código: https://github.com/wtnthu/FaCoR
- Paper: https://arxiv.org/pdf/2304.04546.pdf
Chamou-me a atenção por estar entre os melhores resultados na comparação feita na tabela 6 de #50.
-
# Neural Discrete Representation Learning #
- Author: Aaron van den Oord, Oriol Vinyals, Koray Kavukcuoglu
- Origin: https://arxiv.org/abs/1711.00937
- Related:
- https://avdnoord.github.io/…
-
There are many ways in which, given a (weighted) collection of linear terms, we can generate weighted graphs. Namely, we traverse based on:
- combinations of terms: function application, lambdas etc.
…
-
## Arxiv/Blog/Paper Link
Paper: https://arxiv.org/abs/2308.13280
Code: https://github.com/clessig/atmorep
## Detailed Description
Self-supervised representation learning that uses historical r…