Open yskn67 opened 4 years ago
deep neural networkの半教師あり学習の提案 data augmentationやdropout等によって確率的に出力が揺らぐネットワークにおいて、 出力を近づけるようなloss(ここではunsupervised lossとする)をcross entropy lossに追加する。 2つの学習方法が提案されている。
П-modelはunsupervised lossを同一のネットワークに2回データを入力することで取得する。 Temporal ensemblingではネットワークの入力は1回のみで、過去の出力のEMAを使用してunsupervised lossを計算する。 П-modelと比較してTemporal ensemblingの利点は以下のように述べられている。
https://arxiv.org/abs/1610.02242
Samuli Laine Timo Aila (NVIDIA)
2017
一言でいうと
deep neural networkの半教師あり学習の提案 data augmentationやdropout等によって確率的に出力が揺らぐネットワークにおいて、 出力を近づけるようなloss(ここではunsupervised lossとする)をcross entropy lossに追加する。 2つの学習方法が提案されている。
П-modelはunsupervised lossを同一のネットワークに2回データを入力することで取得する。 Temporal ensemblingではネットワークの入力は1回のみで、過去の出力のEMAを使用してunsupervised lossを計算する。 П-modelと比較してTemporal ensemblingの利点は以下のように述べられている。
論文リンク
https://arxiv.org/abs/1610.02242
著者/所属機関
Samuli Laine Timo Aila (NVIDIA)
投稿日付(yyyy/MM/dd)
2017
概要
新規性・差分
手法
結果
コメント