セマンティクスセグメンテーションタスクにおいて、クラス不均衡がある場合にもうまく学習出来るように、正解セグメンテーション画像と予想セグメンテーション画像の間の境界部分で損失関数を定義した Boundary loss を提案。
2. 先行研究と比べてどこがすごいの?
セマンティクスセグメンテーションタスクにおいて、クラス間不均衡(あるラベルの領域が圧倒的に広く別のラベル領域が値小さい)がある場合、通常の cross entropy loss や Dice loss による学習ではセグメンテーション品質が悪くなるという問題がある。この問題を解決する方法として、cross entropy loss を拡張した Focal Loss や dice loss を拡張した Tversky loss などの損失関数で学習する方法がある。
本手法ではこれらのアプローチとは異なり、正解セグメンテーション画像と予想セグメンテーション画像の間の境界(輪郭)部分で損失関数を定義した Boundary loss を用いて、クラス間不均衡に対処している。
3. 技術や手法の"キモ"はどこにある?
Boundary loss
Boundary loss は、以下の式のように、正解セグメンテーション領域と予想セグメンテーション領域との間の境界部分のL2距離の積分(上図灰色領域)で定義される。
ここで、先の境界間のL2距離の積分での定義では、左上図のように予想セグメンテーション領域が複数に点在してしまっている場合にうまく計算できないという問題がある。
そのため右上図のように、境界上の点の間の距離の積分を、境界内の点との間の距離の積分に置き換える。
こうすることで、予想セグメンテーション領域が複数に点在してしまっている場合でもうまく計算できるようになる。
このことを定式化すると、以下の式となる。
クラス間不均衡がある場合は、generalized Dice loss のような領域内で積分は、不均衡な積分になってしまう。
一方この境界領域間での積分は、クラス間不均衡がある場合でも不均衡な積分にはならないので、クラス不均衡に対処出来るようになる?
実験では、この Boundary loss と dice loss の線形結合で学習したモデルで検証を行っている。
4. どうやって有効だと検証した?
セグメンテーション品質の定性検証
Boundary loss を追加することで、セグメンテーション品質が向上している。
セグメンテーション品質の定量検証
Boundary loss を追加することで、セグメンテーション品質スコアが向上している。
Boundary loss を追加することで、学習時のセグメンテーション品質スコアの安定性が向上している。
0. 論文情報・リンク
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
3. 技術や手法の"キモ"はどこにある?
Boundary loss
4. どうやって有効だと検証した?
セグメンテーション品質の定性検証
セグメンテーション品質の定量検証
5. 議論はあるか?
6. 次に読むべき論文はあるか?
7. 参考文献