Closed mysteryX1 closed 2 months ago
去掉.unsqueeze(0)
就OK了
与 #621 重复。
我现在碰到与#599 一样的问题了
We detected that you are passing `past_key_values` as a tuple and this is deprecated and will be removed in v4.43. Please use an appropriate `Cache` class (https://huggingface.co/docs/transformers/v4.41.3/en/internal/generation_utils#transformers.Cache)
text: 3%|█████▏ | 11/384(max) [01:24, 7.65s/it]
code: 4%|██████▎ | 73/2048(max) [00:18, 3.92it/s]
对于这个问题我可以怎么修改,我已经试过将compile=false 以及compile=True都测试过,都会因为这个问题导致文本加载3%,code加载4%的时候程序退出来了,chatgpt给出的回答是需要在源码里面找到使用 transformers 模型的地方,并替换相应的 past_key_values 参数为 Cache 类。想再请教一下应该怎么操作
我现在碰到与 #599 一样的问题了
那个警告并非问题的原因,是可以忽略的。问题原因还在他处,建议新开一个issue并贴出详细报错。
多谢 @menphix-watanabe 这样能正常跑通:
import ChatTTS
import torch
import torchaudio
chat = ChatTTS.Chat()
custom_path = './pretrained_models/chatTTS/'
device = 'cuda'
chat.load(source='custom', custom_path=custom_path, device=device, compile=False) # Set to True for better performance
texts = ["PUT YOUR 1st TEXT HERE", "PUT YOUR 2nd TEXT HERE"]
wavs = chat.infer(texts)
for i in range(len(wavs)):
torchaudio.save(f"basic_output{i}.wav", torch.from_numpy(wavs[i]), 24000)
您好,在运行demo程序中碰到如下问题,请教以下如何解决。我的电脑配置是ubuntu22.04,cuda版本是11.8,安装的torch版本为2.3.0,torchvision==0.18.0,torchaudio==2.3.0 运行报错的具体报错情况如下: