-
俩模型都是用最新的代码来训练的,不需要切换回0.0.1
第一个模型synthesizer-merged_110k,是在代码支持的四个数据集(aidatatang_200zh,magicdata,aishell3,data_aishell)上联合训练的。learning rate=0.001无衰减,batch size=128,iteration=110k。
第二个模型synthesizer-z…
-
具体代码为:
`import paddle
from paddlespeech.cli.tts import TTSExecutor
def tts(text,output):
#paddle.device.set_device('gpu:0')
tts_executor = TTSExecutor()
wav_file = tts_executor(
…
-
基于PaddleSpeech/examples/other/tts_finetune /tts3/的readme,在中英混合模型上,如果从BZNSYP中选出来3k条语音微调am模型,loss可以下降到0.7左右,且用微调模型合成语音,声音比较清晰,同样用aishell3的数据集的某个人的声音的多条数据微调,推理模型合成的声音也很清晰,没有沙沙的声音;
但是用上述方法,在thchs30上选了250…
-
请问,如果拿标贝数据集训练,那么tts文字转语音也是类似于标贝数据集的声音吗
-
PaddleSpeech包含训练好的文本-语音多模态特征提取模型吗
-
D:\AI_python\MockingBird-main>python demo_toolbox.py
Arguments:
datasets_root: None
enc_models_dir: encoder\saved_models
syn_models_dir: synthesizer\saved_models
voc_models…
-
D:\MockingBird\MockingBird-main1>python demo_toolbox.py -d .\samples
Arguments:
datasets_root: samples
vc_mode: False
enc_models_dir: data\ckpt\encoder
…
-
之前单说话人的模型,我成功移植到了jetson orin nano设备上,他是aarch64架构的嵌入式主控。现在想使用多说话人模型,但是我看新增加了WeTextProcessing ,而使用WeTextProcessing 需要使用pynini,我死活配置不好pynini。请问有什么办法不使用吗?
-
使用这行命令速度过慢而且经常报错:conda install montreal-forced-aligner
我就直接在虚拟环境下pip安装了
但是安装不了MFA的第三方库
请问有什么更好的办法
-
I run it on pc (cpu only) and google colab(Tesla 1000), and got the same wrong message:
Traceback (most recent call last):
File "synthesize.py", line 188, in
model = get_model(args, confi…