Beluuuuuuga / papers

0 stars 0 forks source link

U-Net Compression Using Knowledge Distillation #7

Open Beluuuuuuga opened 4 years ago

Beluuuuuuga commented 4 years ago

論文情報

https://karttikeya.github.io/pdf/unet_report.pdf Karttikeya Mangalam and Dr. Mathieu Salzmann

一言で言うと

背景

貢献

提案

実験・考察

生徒モデルのアーキテクチャ 1層目の深さがオリジナルでは64depthであったが、生徒モデルでは2depthで一層目を作成

補足・疑問など

Chanelとは? =>4-Unetだと初めのレイヤーのフィルターが4chanelあるということ

資料

UNet — Line by Line Explanation Unetの解説

TensorFlowでUNetを構築する

kerasで知識の蒸留(Distillation) だいぶ詳しく紹介されている