-
2.1 使用数据集自己训练合成器模型(与2.2二选一)
·下载 数据集并解压:确保您可以访问 train 文件夹中的所有音频文件(如.wav)
·进行音频和梅尔频谱图预处理: python pre.py 可以传入参数 --dataset {dataset} 支持 aidatatang_200zh, magicdata, aishell3
假如你下载的 aidatatang_20…
-
由于之前一直关注Real-Time-Voice-Cloning(https://github.com/CorentinJ/Real-Time-Voice-Cloning) 这个项目,这次Mocking Bird项目没有使用Tacotron2太令人可惜了。所以自己斗胆将Tacotron2迁到这个系统中,比较粗糙但是可以成功训练和推理。
![image](https://user-images.gi…
-
## General Question
-
Traceback (most recent call last):
File "/home_1/gaoyiyao/MockingBird-main/pre.py", line 74, in
preprocess_dataset(**vars(args))
File "/home_1/gaoyiyao/MockingBird-main/models/synthesize…
-
the Mandarin lexicon.txt in your project seems different from mfa pretrained model
and it will failed to align,saying "There were phones in the dictionary that do not have acoustic models"
![image](…
-
在/home/Paddle/speech/PaddleSpeech/examples/other/tts_finetune/tts3 目录下,通过小样本微调出来的模型,没有修改配置参数,直接运行 ./run.sh --stage 6 --stop-stage 6 ,得到的语音没有情绪,在文本中加入,和。等标点符号,在语音中也没有暂停,情绪和停顿可以通过修改配置或者加入数据训练实现吗?
-
俩模型都是用最新的代码来训练的,不需要切换回0.0.1
第一个模型synthesizer-merged_110k,是在代码支持的四个数据集(aidatatang_200zh,magicdata,aishell3,data_aishell)上联合训练的。learning rate=0.001无衰减,batch size=128,iteration=110k。
第二个模型synthesizer-z…
-
通过官方给的样例:https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/examples/other/tts_finetune/tts3 使用自己准备的单音色数据集,可以成功的克隆出自己需要的音色,现在我想使用多音色数据集去克隆出多音色模型,然后使用时通过speak_id选择音色。请问下应该在官方给的finetune样例中怎么修改呢?
-
Hi,
when i tried to run the demo using your provided ckpt files (speaker_embedding extractor && multispeaker synthesizer ckpt ),which put into the paths that【feedback_synthesizer/hparams.py 】po…
-
想要同时支持中文和英文的播报,怎么训练模型啊?