agatan / paper-reading-notes

読んだ論文の管理とメモ置き場
5 stars 0 forks source link

Empirical Evaluation of Rectified Activations in Convolutional Network #10

Open agatan opened 5 years ago

agatan commented 5 years ago

https://arxiv.org/abs/1505.00853

ReLU 一族について統一的に評価したよという論文。

新しい RReLU(Randomized RReLU) も評価して良い結果が出たことを示している。

RReLU は、LeakyReLU + 負のときの傾きをランダムにしたもの。

結果からわかることは、