Morizeyao / GPT2-Chinese

Chinese version of GPT2 training code, using BERT tokenizer.
MIT License
7.46k stars 1.7k forks source link

每个epoch都会生成一个模型,太大了硬盘装不下来,请问训练多少步合适,能否指定步长存储一次模型 #225

Closed 1402366912 closed 3 years ago

1402366912 commented 3 years ago

每个epoch都会生成一个模型,太大了硬盘装不下来,请问训练多少步合适,能否指定步长存储一次模型