Open keimoriyama opened 2 years ago
author
link
Self-Distillation: Towards Efficient and Compact Neural Networks
畳み込みNNは計算リソースをたくさん必要とする.これは,組み込みシステムなどの計算リソースが限られている中で問題がある
知識蒸留は教師モデルのパフォーマンスが生徒モデルのパフォーマンスに与える影響が大きいという課題がある
そこで,異なるレイヤーの識別器を教師として,識別器同士で蒸留をする手法を提案した
既存の蒸留手法よりも良い精度を達成した
Self-Distillation: Towards Efficient and Compact Neural Networks | IEEE Journals & Magazine | IEEE Xplore
author
link
Self-Distillation: Towards Efficient and Compact Neural Networks
背景:なぜその問題を解決したいのか
畳み込みNNは計算リソースをたくさん必要とする.これは,組み込みシステムなどの計算リソースが限られている中で問題がある
目的:どういう問題を解決したのか
知識蒸留は教師モデルのパフォーマンスが生徒モデルのパフォーマンスに与える影響が大きいという課題がある
提案:解決に向けたキーアイデアは何か
そこで,異なるレイヤーの識別器を教師として,識別器同士で蒸留をする手法を提案した
結果:結局問題は解決されたのか.新しくわかったことは?
既存の蒸留手法よりも良い精度を達成した