furukawa-ai / deeplearning_papers

AI論文読みメモ
26 stars 0 forks source link

Synthetic Gradients #81

Closed msrks closed 1 year ago

msrks commented 7 years ago

Decoupled Neural Interfaces using Synthetic Gradients

msrks commented 7 years ago

ICML2017 DeepMind。 多層ニューラルにおいて、浅い層の学習は、深層からのbackpropを待つ必要がある。 この論文では、各層でbackpropされるerrorの値を予測する Synthetic Gradient generator を使うことで、ニューラルネットの学習を層ごとに分離できる(独立・非同期に学習できる)。

これによって、分散環境で高速に学習することができる。また、下図のように Synthetic Gradient generator を使えば、メモリ制約によらず、高速に、長期依存まで拾ったRNNを学習できる。

2017-10-12 17 55 03

3-6 3-9 width-1500_7cvgu2v

msrks commented 7 years ago

追記: Synthetic Gradient generator も ニューラルネットkで定義する。前の層からの入力を受け取って、後の層からのerror backprop を予測するニューラルネット。