-
First of all, congratulations for your work! It's really intresting.
- I would be grateful if you could provide information about training time for self-supervised case with your settings ( 4 Tesla…
-
- https://arxiv.org/abs/2009.07724
- 2020, CVPR 2021
教師なし表現学習では,ラベル付きデータを用いて学習した表現の品質を評価するのが一般的である.
この教師付き評価は,データ増強方針の選択など,学習プロセスの重要な側面を導くために用いられる.
しかし、ラベルを持たない実世界のデータ(例えば、医用画像のようにプライバシーが重視される分野…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2106.09785
- 2021
本論文では、視覚表現学習のための効率的な自己教師付き視覚変換器(EsViT)を開発するための2つの技術を調査する。
まず、包括的な実証研究を通して、疎な自己言及を持つ多段アーキテクチャは、モデリングの複雑さを大幅に軽減できるが、その代償として画像領域間の細かい対応関係を捉える能力が失われることを示す。
…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2104.09841
- 2021
一般的に深層学習の実験環境では、学習データセットとテストデータセットが同じ分布からサンプリングされていることを前提としています。
しかし、実世界では、2つのデータセット間の分布の違いであるドメインシフトが発生することがあり、これがモデルの汎化性能を阻害する大きな要因となる。
この問題を解決するための研究…
e4exp updated
3 years ago
-
**Conference** :
**Link** : http://arxiv.org/abs/2102.06810
**Authors' Affiliation** : Facebook AI Research
**TL;DR** : SimSiam 논문의 원인을 탐구하는 논문. "How can SSL with only positive pairs avoid represe…
-
![QML}Y0CSAEX~A%F)NZAB26O](https://github.com/user-attachments/assets/c90c5cce-2939-4304-ab42-ff1d3c4dc8ce)
Hi, maybe there something wrong in my step. It's like the train.pt and other file is empty?…
-
Hi Junbo,
Thanks for your great work and open-sourced code. I have a problem of the amount of training data used in self-supervised pretraining. You mentioned in the paper that the whole training…
-
Reproducing your paper, I have a question on experiments for self-supervised PITS.
For self-supervised PITS, did you use the equal input sequence length for time series forecasting experiment in Ta…
-
https://arxiv.org/abs/1704.06888
- Pierre Sermanet, Corey Lynch, Yevgen Chebotar, Jasmine Hsu, Eric Jang, Stefan Schaal, Sergey Levine
- Submitted on 23 Apr 2017 (v1), last revised 20 Mar 2018 (this…
TMats updated
6 years ago
-
1. We want to evaluate the effects of training the 2nd stage in a completely self-supervised setting.
1. Two self-supervised tasks are mentioned in the paper: [graph edit distance](https://arxiv.org/…