arXivTimes / arXivTimes

repository to research & share the machine learning articles
https://arxivtimes.herokuapp.com/
MIT License
3.9k stars 201 forks source link

IN-DOMAIN REPRESENTATION LEARNING FOR REMOTE SENSING #1948

Open wakame1367 opened 3 years ago

wakame1367 commented 3 years ago

一言でいうと

Remote Sensing用のベンチマークを測定できるように5つのデータセットを整備、TFDSで公開した。またこれらデータセットの特性(解像度、クラス数、データの規模)が精度にどれだけの影響を与えるか調査した。Scratch、In-Domain(Remote Sensing用のデータセットで事前学習)、ImageNetそれぞれのFineTuningでの精度を比較し、ひとつのデータセットを除いてIn-DomainがImageNetを上回った。

fig_8

fig_4

論文リンク

https://arxiv.org/abs/1911.06721

著者/所属機関

Maxim Neumann, Andre Susano Pinto, Xiaohua Zhai, Neil Houlsby

投稿日付(yyyy/MM/dd)

2019/11/15

概要

新規性・差分

手法

実験で用いられたモデル・学習パラメータ

fig_5 fig_6 fig_7

結果

ImageNet vs In-Domain

訓練データに一定数制限をかけ、その際の各モデルの精度を比較した。

fig_3

事前学習に適したデータセットの探索

RESISC-45データセットを事前学習として利用すると、別データセットでの精度が良いことがわかった。

fig_2

これについてはImage_Size / クラス数、多様性が起因しているのでは。

fig_8

SOTAモデル

BigEarthNetを除きImageNetのFineTuningから得られた事前学習重みを用いたモデルを既存のSOTAモデルと性能を比較した。今回提案したモデルの性能が上回ったというのが下の結果。

fig_4

ImageNet vs In-Domain vs FromScratch

訓練データに一定数制限をかけ、その際の各モデルの精度を比較した。

fig_2

コメント

結論ではImageNetのFineTuningを上回ったと言っているが精度がさちっているように見えるので、わざわざInDomainのFineTuningを使おうかとならないのではないかと思った。

論文で使われたデータセット、評価に用いられたモデルがTFHub、TFDSにて公開されている以下URL一覧。

wakame1367 commented 3 years ago

https://arxiv.org/abs/2010.00332