kh-kim / simple-nmt

This repo contains a simple source code for advanced neural machine translation based on sequence-to-sequence.
143 stars 71 forks source link

transformer에서 Reinforcement learning for fine-tuning like Minimum Risk Training (MRT)를 수행하려고 합니다. #41

Open eastjin218 opened 3 years ago

eastjin218 commented 3 years ago

transformer에서 Reinforcement learning for fine-tuning like Minimum Risk Training (MRT)를 수행하려고 합니다. 사전학습에 사용된 데이터 모델에서 획득한 bpe모델을 이용하여 bpe과정 까지 진행한 미세조정 할 데이터셋은 준비하였습니다. 미세조정을 하려면 실행문이

python continue_train.py --train [미세조정 데이터.train.tok.bpe] -valid [미세조정 데이터.valid.tok.bpe] --lang enko \ --load_fn ./model.pth \ --iteration_per_update 1 --max_grad_norm 5\ --use_adam --use_transformer --rl_n_epochs 10 \ --model_fn ./model.rl.pth 로 To continue with RL training 방법에서 --use_adam --use_transformer --rl_n_epochs 10 만 추가 하면 될까요??