Open zerebom opened 4 years ago
いまや深層学習は画像解析の手法として2D・3Dともに広く使われる手法となっている。 深層学習がうまく学習をすすめるにはモデルのアーキテクチャと損失関数の選定が重要になっている。ターゲットが小さいインバランスなターゲットの場合は上手に学習することができない。一般的にはクロスエントロピーとDiceスコアを混ぜたものを使うことで解決できると知られているが、このあたりを深く調査した。更にインバランスなターゲットに対してロバストなオーバーラップも考案した。
昨今は2dに加えて3dの医療画像に関する深層学習を用いた自動識別が考案されている。 しかし一般的に、領域が小さい腫瘍の識別などは学習が不安定になることが知られている。 その際にトレーニングデータを上手に間引いてこれを解決する方法があるが、必要なデータを取り除いてしまう危険性もある。そこで過去に考案された損失関数3つについてまずはどのように効果があるかパラメータを変えながら調査していく。そして、我々が考案した更に良いGeneralized Diceというインバランスでもバランスなデータでも扱える損失関数について紹介する。
Abstract
いまや深層学習は画像解析の手法として2D・3Dともに広く使われる手法となっている。 深層学習がうまく学習をすすめるにはモデルのアーキテクチャと損失関数の選定が重要になっている。ターゲットが小さいインバランスなターゲットの場合は上手に学習することができない。一般的にはクロスエントロピーとDiceスコアを混ぜたものを使うことで解決できると知られているが、このあたりを深く調査した。更にインバランスなターゲットに対してロバストなオーバーラップも考案した。
Introduction
昨今は2dに加えて3dの医療画像に関する深層学習を用いた自動識別が考案されている。 しかし一般的に、領域が小さい腫瘍の識別などは学習が不安定になることが知られている。 その際にトレーニングデータを上手に間引いてこれを解決する方法があるが、必要なデータを取り除いてしまう危険性もある。そこで過去に考案された損失関数3つについてまずはどのように効果があるかパラメータを変えながら調査していく。そして、我々が考案した更に良いGeneralized Diceというインバランスでもバランスなデータでも扱える損失関数について紹介する。
Methods
Loss functions unbalanced data
Network architecture
Network training
Dataset modification
Result
Discussion