transformer에서 Reinforcement learning for fine-tuning like Minimum Risk Training (MRT)를 수행하려고 합니다.
사전학습에 사용된 데이터 모델에서 획득한 bpe모델을 이용하여 bpe과정 까지 진행한 미세조정 할 데이터셋은 준비하였습니다.
미세조정을 하려면 실행문이
python continue_train.py --train [미세조정 데이터.train.tok.bpe] -valid [미세조정 데이터.valid.tok.bpe] --lang enko \
--load_fn ./model.pth \
--iteration_per_update 1 --max_grad_norm 5\
--use_adam --use_transformer --rl_n_epochs 10 \
--model_fn ./model.rl.pth
로 To continue with RL training 방법에서 --use_adam --use_transformer --rl_n_epochs 10 만 추가 하면 될까요??
transformer에서 Reinforcement learning for fine-tuning like Minimum Risk Training (MRT)를 수행하려고 합니다. 사전학습에 사용된 데이터 모델에서 획득한 bpe모델을 이용하여 bpe과정 까지 진행한 미세조정 할 데이터셋은 준비하였습니다. 미세조정을 하려면 실행문이