AlexandaJerry / vits-mandarin-biaobei

application of vits on mandarin tts
MIT License
120 stars 104 forks source link

关于算力 #7

Closed jeremychee4 closed 1 year ago

jeremychee4 commented 1 year ago

Jerry好: 我在《Colab一键炼丹》中看到注释: ·“Tesla-P100-16G的GPU每个epoch大概需要5分钟左右” ·“把里面的batch_size从16降到8,然后重新运行该代码框” 目前我也是在biaobei数据集上进行训练(10000条音频文件),是用手上的4块A10(22731MB显存/块)进行多卡训练,但发现将batch_size降到2才能正常运行(此时占用显存50个G🤔)。想请教您一下这大概是什么情况导致嘞(您用的是10000条音频数据的那个数据集嘛)? 十分感谢!

jeremychee4 commented 1 year ago

不好意思,刚对照filelist发现跟您用的数据是一样的,但是我这边对显存的占用这么大有点奇怪,别的参数都没动过,emmm...

jeremychee4 commented 1 year ago

solved