Ereebay / blog

1 stars 0 forks source link

Stagewise Knowledge Distillation | Eree's Blog #15

Open Ereebay opened 4 years ago

Ereebay commented 4 years ago

https://ereebay.me/posts/26959/

Stagewise Knowledge Distillation Abstract 大部分现代深度学习模型需要高运算力,但是对于嵌入式设备来说,缺少这种高运算能力。因此对于这类设备,能够减少运算并且保持性能的模型非常重要。知识蒸馏就是解决这类问题的方法之一。传统知识蒸馏方法是直接在一个阶段中将知识从老师中转换到学生。我们提出一种阶段性的训练方式,来提升知识的转换。这种方法甚至可以只用一部分训练教师