Open leehyeonjin99 opened 2 years ago
Model
Data
Optimizer
Loss Function
Scheduler
Augmentation
torch
adamp
madgrad
torch 1.7.1
📎 성능 평가 지표 Mean Loss = epoch_loss / num_batches epoch_loss : 각 epoch마다 모든 batch의 loss를 합한 값 📎 optimizer 적용 방법 from importlib import import_module import madgrad import adamp if optimizer in dir(torch.optim): opt_module = getattr(import_module('torch.optim'), optimizer) optimizer = opt_module(model.parameters(), lr=learning_rate) elif optimizer == 'MADGRAD': optimizer = madgrad.MADGRAD(model.parameters(), lr=learning_rate) elif optimizer == 'AdamP': optimizer = adamp.AdamP(model.parameters(), lr=learning_rate)
📎 성능 평가 지표
Mean Loss
epoch_loss
num_batches
📎 optimizer 적용 방법
from importlib import import_module import madgrad import adamp if optimizer in dir(torch.optim): opt_module = getattr(import_module('torch.optim'), optimizer) optimizer = opt_module(model.parameters(), lr=learning_rate) elif optimizer == 'MADGRAD': optimizer = madgrad.MADGRAD(model.parameters(), lr=learning_rate) elif optimizer == 'AdamP': optimizer = adamp.AdamP(model.parameters(), lr=learning_rate)
실험
실험 목표
동기
Model
+Data
+Optimizer
+Loss Function
+Scheduler
+Augmentation
로 볼 수 있다.환경 및 과정
torch
,adamp
,madgrad
라이브러리를 사용하였다.torch 1.7.1
: SGD, ASGD, Adam, AdamW, Adamaxadamp
: ADAMPmadgrad
: MADGRAD결과