Open alannesta opened 11 months ago
step4: 开始训练 这一步, 运行finetune_speaker_v2.py时将perserve参数设置低一点, 我设置为1 !python finetune_speaker_v2.py -m "./OUTPUT_MODEL" --max_epochs "{Maximum_epochs}" --drop_speaker_embed False --cont True --preserved 1
step4: 开始训练
!python finetune_speaker_v2.py -m "./OUTPUT_MODEL" --max_epochs "{Maximum_epochs}" --drop_speaker_embed False --cont True --preserved 1
这样的话如果mount了google drive, 只会rotate保存一个版本的临时模型,file IO会少很多, 训练的速度很快。 如果不改的preserve的话默认会保存4个之前的模型, google drive空间一不小心就会撑爆,而且反复的读写文件训练速度也慢一些
step4: 开始训练
这一步, 运行finetune_speaker_v2.py时将perserve参数设置低一点, 我设置为1!python finetune_speaker_v2.py -m "./OUTPUT_MODEL" --max_epochs "{Maximum_epochs}" --drop_speaker_embed False --cont True --preserved 1
这样的话如果mount了google drive, 只会rotate保存一个版本的临时模型,file IO会少很多, 训练的速度很快。 如果不改的preserve的话默认会保存4个之前的模型, google drive空间一不小心就会撑爆,而且反复的读写文件训练速度也慢一些