-
### 論文へのリンク
[[arXiv:1911.05722] Momentum Contrast for Unsupervised Visual Representation Learning](https://arxiv.org/abs/1911.05722)
### 著者・所属機関
Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, …
-
- https://arxiv.org/abs/2105.05837
- 2021
最近の自己教師付き表現学習技術により,ImageNet分類における教師付き学習と教師なし学習の間のギャップがほぼ解消された.
ImageNet上での事前学習の特殊性は比較的よく理解されていますが、この成功を他のデータセットで再現するための広く受け入れられたベストプラクティスはまだありません。
この方向へ…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2104.12836
- 2021
本研究では、マルチモーダルデータに対応した視覚表現の学習方法を開発しました。
この学習方法は、モーダル内およびモーダル間の類似性を維持することを目的としています。
既存の視覚的な事前学習法は、単一のドメインのプロキシ予測タスクを解決するものであるが、我々の手法は、各モダリティ内の固有のデータ特性と、クロ…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2104.07767
- 2021
ソーシャルメディアプラットフォームにおけるビジュアルエンゲージメントは、コメント、シェア、「いいね!」などの写真投稿に対するインタラクションで構成されています。
本論文では、このような視覚的エンゲージメントの手がかりを、表現学習のためのスーパーバイザリー・シグナルとして活用する。
しかし、エンゲージメン…
e4exp updated
3 years ago
-
2019
Consistency learningのためにQueによるDictionaryを使ったMocoという手法を提案。 Unsupervised visual representation learningの手法で最高精度を達成
ImageNetより良くなった
Dictonaryのサイズを大きくしたいのでキューで実装した。
キューを大きくすると特徴量の更新が大変なので指数平均を取…
-
*Sent by Google Scholar Alerts (scholaralerts-noreply@google.com). Created by [fire](https://fire.fundersclub.com/).*
---
###
###
### [PDF] [EQ-CBM: A Probabilistic Concept Bottleneck with Energy…
-
# Help wanted: Research paper code and models
Please help us to implement the following research paper using TensorFlow 2.
If you want to contribute, please leave a comment to express your inter…
-
CLIP-Lite: Information Efficient Visual Representation Learning from Textual Annotations
https://arxiv.org/abs/2112.07133
Anyone keen to try modifying a training script for above?
-
这篇论文是谷歌出品的又一个很有意义的工作。该文提出了一个非常简单的方法,来提高模型在vision-language和vision的表示能力。该方法通过对原始语料进行简单处理从而获得大规模的噪声数据集,接着采用对比学习的方法在一个非常基础的dual-encoder模型进行预训练(image caption任务)。该模型现在在许多任务上都刷新了SOTA。
## 信息
- 主要作者:Chao Ji…
-
**Original article:** T. Chen, S. Kornblith, M. Norouzi, and G. Hinton. “A simple framework for contrastive learning of visual repre-
sentations.” In: International conference on machine learning. PM…