Closed Toma0916 closed 1 year ago
https://www.kaggle.com/c/global-wheat-detection/discussion/149805 データセット無限水増しの可能性
https://www.kaggle.com/c/global-wheat-detection/discussion/148575 Plant Object Detection / Counting Papersについてまとめている
メモ:ひまになったらPseudo Labelingをする
FasterrcnnをmultiGPUにするならpytorch-lightningにするのが一番速い説(?) https://www.kaggle.com/c/global-wheat-detection/discussion/150526
過去の画像コンペの所感だと結局大きな差を生み出すのってに本質的な問題に対処した決定的な何かを出来るかな感じあるので、モデリングとか学習スキームに加えて
みたいなところじっくり考えたいね
https://github.com/ZFTurbo/Weighted-Boxes-Fusion
ensembleのときに使えそう
https://arxiv.org/pdf/1910.13302.pdf
ensemble時WBF
ハイパラ参考
https://speakerdeck.com/iwiwi/kaggle-state-farm-distracted-driver-detection?slide=50 Cross pseudo labelingでメチャスコア上げているのでやってみたいね
https://www.youtube.com/watch?v=Wr44me5eyWY
暗い画像も結構あるのね
test datasetの例のってるのえらい あとなんか稲穂がめちゃ光反射しててみづらいやつとかもあった気がする
https://www.kaggle.com/arnimen5/idea-color-conversion
かなりナイーブな方法だけどこういう正規化もありかもしれんね
テストデータはsourceが見れないからsourceごとに計算するのむずいかもだけど?
後処理系、最適化書いてモデルごとにパラメタ探索した方いいかもな
https://www.kaggle.com/shonenkov/bayesian-optimization-wbf-efficientdet
https://www.kaggle.com/shonenkov/bayesian-optimization-wbf-efficientdet
これ、そこまでしてパラメータ調整しても過学習っぽくなって意味ないのではという気もするけどどうなんですかね でも確かにモデルごとにざっくりパラメタ探索はそうかも
無限アンサンブル
後処理は過学習はまぁするかもしれんけどいまの適当なやつよりは良くなりそうな気もする DSBとかQUESTも後処理ゲーみたいなところ若干あったし試すだけありかも
なるほどねぇ とりあえず今までモデルの訓練に費やしてきたけど、今週来週とかは後処理, pseudo labeling, ensembleあたりを一通り試してみてスコアの所感をつかみたい感じがある
せやな
ワイ明日面接ドキドキだけどそれ終わったら無限コントリビューション
https://www.kaggle.com/shonenkov/wbf-over-tta-single-model-efficientdet#WBF-over-TTA: とうとう0.7294のカーネル公開されてて草
ハイパーインフレ ドラゴンボールか?
pix2pixもcolorizationもノウハウあるしありだな
colorizationでマルチモーダルな出力を研究していたチカラ、見せちゃうか?
pix2pixやろうかな
@kminoda CycleGanをつかったスタイル変換を実装してInferenceのときにtest dataのスタイルを学習させるっての思いついた
あのKernelの時間、1時間ちょいだからどうにかならないかな
たしかに プロ
とりあえずCycleGan実装してみるか
ここにリンク貼ったりして共有しましょう。