-
很多.json里面(比如[aishell3/configs/v1.json](https://github.com/wenet-e2e/wetts/blob/main/examples/aishell-3/configs/v1.json)),我看之前的[commits](https://github.com/wenet-e2e/wetts/commit/b6fa3f95be6f65eacd8029…
-
**Summary[问题简述(一句话)]**
A clear and concise description of what the issue is.
toolbox跑不了
**Env & To Reproduce[复现与环境]**
描述你用的环境、代码版本、模型
python3.8.10 最新mockingbird [miven](https://github.com/miven)的…
-
简单好用,先点一个赞。
使用multi合成的时候默认生成了十个不同说话人的十条语音,麻烦问一下可以指定aishell3的某一个说话人吗?参数是什么呢,没找到呢
-
我是本地部署的。执行到该步骤的时候没有在exp_demo/mfa/下生成new_dir。我本地的glibc是2.17版本。但是又不太方便升级这么底层的包,请问是否有办法绕过呢?
```
mfa_align /home/aistudio/work/exp_demo/new_dir tools/aligner/simple.lexicon tools/aligner/aishell3_model.…
-
- 使用[[tts-models](https://github.com/k2-fsa/sherpa-onnx/releases/tag/tts-models)](https://github.com/k2-fsa/sherpa-onnx/releases/download/tts-models/sherpa-onnx-non-streaming-tts-v1.8.11.exe) 组件
- 异常…
-
列表里没有双语模型,只包含单语模型
AssertionError: The model "fastspeech2-mix" you want to use has not been supported, please choose other models.
The support models includes:
speedyspeech_csmsc-zh
fastspeech2…
-
我按照您vits_bert_aishell3那个分支训练了一个基于aishell3数据集的多说话人的底模,然后我想在这个底模之上继续微调一个自己的单人数据集,怎么应该操作呢?
-
前面基于aishell3训练多说话人底模的时候,发现aishell3的数据集在提供的拼音这块非常准确,比如:
我永远都不会忘记和你一起度过的日子
wo3 yong2 yuan3 dou1 bu2 hui4 wang4 ji4 he2 ni3 yi4 qi3 du4 guo4 de5 ri4 zi5
其中“永”“不”“一”第三声调的变声,都是对的。
微调数据由于要自己用工具生成,比如py…
-
想请教下,您是否已经跑通了代码,并且验证了效果呢?
因为看到好多权重设置跟论文中不一致
-
你好!sherpa-onnx-offline-tts-play.exe测试TTS的时候,用的vits-zh-aishell3模式包内参数,运行脚本如下:
sherpa-onnx-offline-tts-play.exe --vits-model=.\zh_CN-huayan-medium.onnx --vits-tokens=.\tokens.txt --vits-lexicon=.\lexic…