-
## 🚀 Feature
Add support for self supervised learning, especially for multimodal input and improve the current vissl backed features.
### Motivation
I have been working on multimodal self super…
-
- https://arxiv.org/abs/2105.12787
- 2021
近年、機械学習を用いたプログラム解析は、形式的な推論と確率的な推論を統合してソフトウェア開発を支援するものとして期待されています。
しかし、大規模なアノテーションされたコーパスがない場合、これらの分析をトレーニングすることは困難です。
この問題を解決するために、我々はBugLabを発表する。
BugL…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2105.04553
- 2021
コンピュータビジョンの分野では、CNNからTransformerへとモデルチェンジが進んでいます。
本研究では、Vision Transformersをバックボーン・アーキテクチャとする、MoBYと呼ばれる自己教師付き学習アプローチを発表する。
このアプローチには基本的に新しい発明はなく、MoCo v2…
e4exp updated
3 years ago
-
Não encontrei código associado, todavia parece simples de reproduzir.
-
in line 758, above train() add
plt.savefig(f'{folder}/'+file_name)
def plot(self, folder="./figures", beta=3, mask=False, mode="supervised", scale=0.5, tick=False, sample=False, in_vars=None, out_va…
-
## 🚀 Feature
Addition of Swin, SwinV2 to the swav self-supervised models
### Motivation and Pitch
Swin, SwinV2 vision transformers are currently one of the top-performing models on multiple c…
-
hi,
This article Cluster Head Detection for Hierarchical UAV Swarm With Graph Self-supervised Learning is very novel.
Can you open source the code for the article?
-
https://arxiv.org/abs/2304.12210
-
I have 16000 images on my unlabeled data, the batch_size is set to 32, and it takes almost 20 minutes to train an epoch, what is the reason for that
-
I've been playing around with DETR for a little bit now and I've noticed through the attention visualizer in the notebook, that even objects that do not appear in coco or that the network were trained…