Open fulfulggg opened 3 days ago
サブサンプリング層は、深層学習において、活性化マップの一部を破棄して空間次元を削減することで重要な役割を果たし、深層学習モデルが高レベルな表現を学習することを促します。この考えとは逆に、我々は破棄された活性化も有用であり、モデルの予測精度向上に活用できると仮説を立てました。この仮説を検証するため、テスト時に使用するのに適した活性化マップを探索して集約する方法を提案します。この方法を画像分類とセマンティックセグメンテーションのタスクに適用しました。複数のデータセットを用いて9つの異なるアーキテクチャで広範な実験を行った結果、この方法は既存のテスト時拡張技術を補完し、モデルのテスト時性能を一貫して向上させることが示されました。コードは https://github.com/ca-joe-yang/discard-in-subsampling で公開しています。
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
タイトル: サブサンプリング層を持つディープネットは、テスト時に有用な活性化を意図せずに破棄してしまう
リンク: https://arxiv.org/abs/2410.01083
概要:
サブサンプリング層は、深層学習において、活性化マップの一部を破棄して空間次元を削減することで重要な役割を果たし、深層学習モデルが高レベルな表現を学習することを促します。この考えとは逆に、我々は破棄された活性化も有用であり、モデルの予測精度向上に活用できると仮説を立てました。この仮説を検証するため、テスト時に使用するのに適した活性化マップを探索して集約する方法を提案します。この方法を画像分類とセマンティックセグメンテーションのタスクに適用しました。複数のデータセットを用いて9つの異なるアーキテクチャで広範な実験を行った結果、この方法は既存のテスト時拡張技術を補完し、モデルのテスト時性能を一貫して向上させることが示されました。コードは https://github.com/ca-joe-yang/discard-in-subsampling で公開しています。