-
2019
Consistency learningのためにQueによるDictionaryを使ったMocoという手法を提案。 Unsupervised visual representation learningの手法で最高精度を達成
ImageNetより良くなった
Dictonaryのサイズを大きくしたいのでキューで実装した。
キューを大きくすると特徴量の更新が大変なので指数平均を取…
-
Hi,
Self-supervised pretraining for speech representation is a promising technique for developing ASR in resource-constraint languages with little transcribed data, and SimCLR is applied with success…
-
Hello, the code of this paper is written in TF style. I know from the author's issue that you rewrote the code into pytorch style. Could you please send me the source code of pytorch code? Thank you v…
-
- https://arxiv.org/abs/1711.00937
- 2017
監督なしで有用な表現を学習することは、機械学習における重要な課題である。
本論文では、このような離散的な表現を学習する、シンプルで強力な生成モデルを提案する。
我々のモデル、VQ-VAE(Vector QuantisedVariational AutoEncoder)は、2つの重要な点でVAEとは異なる…
e4exp updated
2 years ago
-
## 💭 Description:
Need someone to design a logo/banner for the repository.
## 🏟️ Discord:
Join [Discord](https://discord.gg/m2FKzbnFBf)
-
[https://aclweb.org/anthology/papers/P/P19/P19-1317/](https://aclweb.org/anthology/papers/P/P19/P19-1317/)
-
-
## 論文リンク
- [arXiv](https://arxiv.org/abs/2105.05217)
## 公開日(yyyy/mm/dd)
2021/05/11
## 概要
## TeX
```
% yyyy/mm/dd
@inproceedings{
hadji2021representation,
title={Representatio…
-
### Paper Details
**Link**:https://www.researchgate.net/publication/335692542_Representation_Learning_for_Emotion_Recognition_from_Smartphone_Keyboard_Interactions
**Date**: SEP 2019
**Topic**: MTL…
-
## 0. 論文
### タイトル
Pretraining Methods for Dialog Context Representation Learning
### リンク
https://arxiv.org/abs/1906.00414
### 著者
Shikib Mehri, Evgeniia Razumovskaia, Tiancheng Zhao, Maxine Esk…