myshell-ai / MeloTTS

High-quality multi-lingual text-to-speech library by MyShell.ai. Support English, Spanish, French, Chinese, Japanese and Korean.
MIT License
3.97k stars 472 forks source link

请问中文预训练模型在哪里可以下载? #111

Open liuxiong21 opened 2 months ago

liuxiong21 commented 2 months ago

现在训练中文发现预训练模型是英文的

Coder0015 commented 2 months ago

请问一下,知道预训练模型自动下载后保存在什么地方吗?我想删掉但找不到它的位置

liuxiong21 commented 2 months ago

请问一下,知道预训练模型自动下载后保存在什么地方吗?我想删掉但找不到它的位置

melo/logs/$dataset_name/ 下面

Coder0015 commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

liuxiong21 commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

我训练过了,不行,可以说中文了,但是非常差

Coder0015 commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

我训练过了,不行,可以说中文了,但是非常差

改下音标试试,我昨天用中日英混合的模型跑了一下,出的效果还是凑合的

v3ucn commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

我训练过了,不行,可以说中文了,但是非常差

改下音标试试,我昨天用中日英混合的模型跑了一下,出的效果还是凑合的

请问使用Bert-vits2 2.1版本的底模来训melo-tts吗?

Coder0015 commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

我训练过了,不行,可以说中文了,但是非常差

改下音标试试,我昨天用中日英混合的模型跑了一下,出的效果还是凑合的

请问使用Bert-vits2 2.1版本的底模来训melo-tts吗?

用的这个底模https://openi.pcl.ac.cn/Stardust_minus/Bert-VITS2/modelmanage/model_filelist_tmpl?name=Bert-VITS2%E4%B8%AD%E6%97%A5%E8%8B%B1%E5%BA%95%E6%A8%A1-fix

v3ucn commented 2 months ago

我观察到他是用cached-path包进行下载缓存的,模型缓存路径在~/.cache/cached_path/,这个项目是基于Bert-VITS2来做的,那么我猜想Bert-VITS2的中文模型或许能够直接用来替换掉官方的模型。

我训练过了,不行,可以说中文了,但是非常差

改下音标试试,我昨天用中日英混合的模型跑了一下,出的效果还是凑合的

请问使用Bert-vits2 2.1版本的底模来训melo-tts吗?

用的这个底模https://openi.pcl.ac.cn/Stardust_minus/Bert-VITS2/modelmanage/model_filelist_tmpl?name=Bert-VITS2%E4%B8%AD%E6%97%A5%E8%8B%B1%E5%BA%95%E6%A8%A1-fix

感谢