Open KidsareBornStars opened 1 year ago
train lossa가 굉장히 잘 수렴하는 추세로 보여 synthetic data에 대해 학습은 잘 하는 것으로 보인다. 그러나,
target dataset(test dataset)과 유사하다고 판단되는 upstage data에 대한 valid는 epoch이 늘어나도 수렴하지 않는 모습.
따라서 실험을 끊고, 두 가지의 실험을 진행해보기로 하였다.
현재까지 실험한 것을 finetuning하는 형식으로 icdar19 데이터셋으로 train하여 upstage dataset을 valid
ICDAR 17 / ICDAR 19를 다 함께 train했던 model에 Synthetic Dataset으로 finetuning 하여 Upstage dataset을 valid(1번 이후에 바로 실험)
template에 맞게 수정했어욥
1번부터 진행중 (trainbatch 16 / validbatch 32 / lr 1e-4 / max epoch 20)
(synth + icdar19) + (17korean+upstage) finetuning 진행중
결과
보라색이 1번, 하늘색이 2번인데 loss가 더 낮아질 수 있지 않을까 해서 2번에서 30epochs 정도 더 continue 실험 진행(settings 유지)
원래보다 성능이 안나와서 중단!
Description
Details
Reference / Image