Morizeyao / GPT2-Chinese

Chinese version of GPT2 training code, using BERT tokenizer.
MIT License
7.45k stars 1.7k forks source link

可以保存断点继续训练吗? #196

Closed libralibra closed 3 years ago

libralibra commented 3 years ago

1.有可能资源有限,时间到了就不能继续使用 2.有可能语料后期有增加

这两种情况下都需要从某个点继续训练模型,要不然前期工作都浪费了。该怎么保存断点以备将来继续训练?

libralibra commented 3 years ago

自己看代码解决了,可以。只需要指定预训练模型地址即可。