Open tkuri opened 3 years ago
計算量やメモリ消費をほぼ増加させることなくNN内の活性化関数の数を1桁増やし非線形性を高めるWide Hidden Expansion(WHE)レイヤーの提案。WHEは各チャネルが2つの入力と1つの出力に接続されるシンプルな構成なため様々なNNに柔軟に組み入れることができ、性能を向上できる。
https://openaccess.thecvf.com/content_WACV_2020/html/Wang_Wide_Hidden_Expansion_Layer_for_Deep_Convolutional_Neural_Networks_WACV_2020_paper.html
未確認。
論文概要
計算量やメモリ消費をほぼ増加させることなくNN内の活性化関数の数を1桁増やし非線形性を高めるWide Hidden Expansion(WHE)レイヤーの提案。WHEは各チャネルが2つの入力と1つの出力に接続されるシンプルな構成なため様々なNNに柔軟に組み入れることができ、性能を向上できる。
https://openaccess.thecvf.com/content_WACV_2020/html/Wang_Wide_Hidden_Expansion_Layer_for_Deep_Convolutional_Neural_Networks_WACV_2020_paper.html
Code
未確認。