-
## 論文タイトル(原文まま)
STABLE CONSISTENCY TUNING: UNDERSTANDING AND IMPROVING CONSISTENCY MODELS
## 一言でいうと
生成モデルである「コンシステンシーモデル」に対する安定的な調整手法(Stable Consistency Tuning, SCT)を提案し、生成性能や収束速度の向上を目指した研究。
#…
-
## タイトル: 深層特徴応答識別較正
## リンク: https://arxiv.org/abs/2411.13582
## 概要:
深層ニューラルネットワーク(DNN)は様々な分野で広く応用されています。ResNetやSENetなど、モデルの精度向上を目指した最適化手法が数多く提案されています。これらの手法は、特徴応答を統一的な基準で調整・較正することでモデル性能を向上させます。しかし…
-
Test ResNet 50 model using CIFAR-10 dataset with the SM3 optimizer for tensors and convolution operations.
-
I have been trying to use the classifier module but I'm getting -nan always in my loss.. how could i train the classifier properly? @pjreddie
-
Hi,
Have you tried this attack on MNIST and CIFAR-10 datasets? Can you please suggest a suitable configuration for l_inf attack for testing purposes?
Thanks
-
I was trying to extend the algorithm to run on images of CIFAR-10 and also include a neural network as another classifier model. Since ideally the algorithm should be extensible and logically work on …
-
When trying to run the [code from the documentation](https://neoml.readthedocs.io/en/latest/tutorials/Cifar10.html) with using a GPU, the program interrupts execution with RuntimeError without any des…
-
-
## タイトル: SigCLR: 視覚表現のためのシグモイド対照学習
## リンク: https://arxiv.org/abs/2410.17427
## 概要:
画像表現のシグモイド対照学習であるSigCLRを提案する。SigCLRは、ペアのみに作用し、SimCLRで使用されるクロスエントロピー損失のようにグローバルなビューを必要としないロジスティック損失を利用する。ロジスティック損失…
-
Correct normalization values for CIFAR-10: (0.4914, 0.4822, 0.4465), (0.247, 0.243, 0.261)