Open fulfulggg opened 1 month ago
ディープラーニングは目覚ましい進歩を遂げていますが、ノイズが多く複雑な困難なサンプルから学習することは依然として困難な課題です。これらの困難なサンプルは、ディープニューラルネットワークの最適なパフォーマンスにおいて重要な役割を果たします。スパースニューラルネットワーク(SNN)に関するほとんどの研究は、標準的なトレーニングデータに焦点を当てており、複雑で困難なデータに対する有効性については解明されていません。本稿では、さまざまなシナリオにおいて広範な調査を実施し、困難なサンプルでトレーニングされたほとんどのSNNが、特定のスパースレベル、特にデータが限られている場合、精度において多くの場合、デンスモデルに匹敵するか、それを上回ることを明らかにしました。層ごとの密度比は、特に事前トレーニングされた初期化なしで最初からトレーニングする手法において、SNNのパフォーマンスにおいて重要な役割を果たす傾向があることがわかりました。これらの洞察は、データ中心のAIにおけるSNNの挙動と効率的な学習アプローチの可能性についての理解を深めます。私たちのコードは\url{https://github.com/QiaoXiao7282/hard_sample_learners}で公開されています。
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
タイトル: スパースニューラルネットワークはハードサンプルの学習に優れているのか?
リンク: https://arxiv.org/abs/2409.09196
概要:
ディープラーニングは目覚ましい進歩を遂げていますが、ノイズが多く複雑な困難なサンプルから学習することは依然として困難な課題です。これらの困難なサンプルは、ディープニューラルネットワークの最適なパフォーマンスにおいて重要な役割を果たします。スパースニューラルネットワーク(SNN)に関するほとんどの研究は、標準的なトレーニングデータに焦点を当てており、複雑で困難なデータに対する有効性については解明されていません。本稿では、さまざまなシナリオにおいて広範な調査を実施し、困難なサンプルでトレーニングされたほとんどのSNNが、特定のスパースレベル、特にデータが限られている場合、精度において多くの場合、デンスモデルに匹敵するか、それを上回ることを明らかにしました。層ごとの密度比は、特に事前トレーニングされた初期化なしで最初からトレーニングする手法において、SNNのパフォーマンスにおいて重要な役割を果たす傾向があることがわかりました。これらの洞察は、データ中心のAIにおけるSNNの挙動と効率的な学習アプローチの可能性についての理解を深めます。私たちのコードは\url{https://github.com/QiaoXiao7282/hard_sample_learners}で公開されています。