Open tm4roon opened 5 years ago
BERTを知識蒸留することにより、軽量化・高速化を図った研究。モデルの性能を97%保ちつつ、モデルサイズを40%、計算速度を60%落とすことに成功。知識蒸留を行う際には、教師モデルの出力分布を教師データとしたsoft target lossに加えて、BERTの学習時の損失関数であるmasked language modeling loss及び隠状態間の差を損失としたcosine embedding lossを加える。
DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter
BERTを知識蒸留することにより、軽量化・高速化を図った研究。モデルの性能を97%保ちつつ、モデルサイズを40%、計算速度を60%落とすことに成功。知識蒸留を行う際には、教師モデルの出力分布を教師データとしたsoft target lossに加えて、BERTの学習時の損失関数であるmasked language modeling loss及び隠状態間の差を損失としたcosine embedding lossを加える。
文献情報