ResNet の後段ネットワークは、以前の残差出力を元に学習が行われる。
本手法では、ResNet を上図のように、追加の補助損失 [auxiliary loss] loss2 を加えた教師データ?で初期の結果を出力し、最終的な損失 loss1 で残差を学習するようにする?
※ 論文中のこの部分何を言っているのかよくわからなかった
> We contrarily propose generating initial results by supervision with an additional loss, and learning the residue afterwards with the final loss. Thus, optimization of the deep network is decomposed into two, each is simpler to solve.
0. 論文情報・リンク
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
3. 技術や手法の"キモ"はどこにある?
アーキテクチャの全体像
ResNet における補助損失関数の導入
4. どうやって有効だと検証した?
既存のセグメンテーションモデルとのセグメンテーション品質の定性比較
既存のセグメンテーションモデルとの定量比較
ResNet における補助損失導入による効果の定量比較
5. 議論はあるか?
6. 次に読むべき論文はあるか?
7. 参考文献