Open JunityZhan opened 2 months ago
还得有batch和文本数量、token总长不然没法对比的
还得有batch和文本数量、token总长不然没法对比的
既然设了1500这个限制,实际上不会差多少,1499 token推到1500和1推到2速度真差不多,batch size 1统一1即可,但实际上实测1到8都差不多(比较新的卡)
我最近也在对比速度,参数全部默认,模型是v2的,我发现进行推理的时候,amd的总能把所有cpu核心都跑起来,intel则会有很多核心闲置,设置torch.set_num_threads()也没有效果,不知道有没有办法优化
我最近也在对比速度,参数全部默认,模型是v2的,我发现进行推理的时候,amd的总能把所有cpu核心都跑起来,intel则会有很多核心闲置,设置torch.set_num_threads()也没有效果,不知道有没有办法优化
请问有没有具体的数据呢,比如amd多快intel多快
之前是用i9 13900+4090的笔记本和amd 7945+4060的笔记本作比较,amd要稍快一些,我这几天多测一些数据
用GPT-SoVITS-v2-240821.7z的版本,v2,勾选并行推理版本,其他全默认,可以吧
windows11 + amd 7945HX + 4060laptop + CUDA12.6 + GSV1 = 190it/s windows11 + amd 7945HX + 4060laptop + CUDA12.6 + GSV2 = 185it/s windows11 + amd 5800 + 4070 + CUDA12.4 + GSV2 = 80it/s
windows11 + amd 7945HX + 4060laptop + 无CUDA + GSV2 = 185it/s
你下pytorch的时候会把cuda给装了的,所以这里肯定是有cuda的
windows11 + amd 7945HX + 4060laptop + 无CUDA + GSV2 = 185it/s
你下pytorch的时候会把cuda给装了的,所以这里肯定是有cuda的
嗯,我记得有个地方能看到来着,刚才cmd里面nvcc -V没反应,我以为没装,看了下是12.6
windows11 + i9 13900+ 4090 + CUDA12.6 + GSV1 = 140it/s windows11 + i9 13900+ 4090 + CUDA12.6 + GSV2 = 155it/s
和理想的速度有很大出入,不知道问题出在哪里
windows11 + 13900k+ 4090 + CUDA12.6 + GSV2 150-155it/s 和linux差这么多吗?
windows10 + 11700K+ 4060ti+ CUDA11.8 + GSV2 110it/s
并行,bs=1:windows10 + 12490+ 3080+ CUDA11.8 + GSV2 130it/s 不开并行推理,能到 170 it/s
ubuntu22 + 13900k + 4090 + CUDA12.4 + GSV2 = 500it/s
这个和我上面windows11那个测试所用的机器是同一台,用的是完全一样的硬件,新加了一条固态,m.2的PCIE也是一样的,安装了ubuntu22.04.5,测试500it/s,windows11只有150it/s左右。
我才用https://www.codewithgpu.com/i/RVC-Boss/GPT-SoVITS/GPT-SoVITS-Official,速度很差,有参考音频,只有56,60 it/s。输出16秒的音频,需要8.49秒,还是很长。edgetts只要3.67秒,有办法提高吗? 运行时,GPU nvidia-smi反映的使用率只有6%左右,而top load在2-3.
虚机配置: cpu:14核,Intel(R) Xeon(R) CPU E5-2697 v3 @ 2.60GHz memory:182GB GPU:RTX 3090 系统:宿主机ubuntu20.04 , docker 里面是20.04 cuda:cuda_11.8.r11.8/compiler.31833905_0 另外,从inference_webui.py 判读使用的时cuda。 if torch.cuda.is_available(): device = "cuda" else: device = "cpu" print(f"device = {device}") ==> 返回cuda
想问一下是否有 amd的cpu linux的系统 这样的组合,测试一下速度,想对比一下cpu的影响,因为amd很多全大核,intel很多大小核,cpu的调度可能会影响推理速度
想问一下是否有 amd的cpu linux的系统 这样的组合,测试一下速度,想对比一下cpu的影响,因为amd很多全大核,intel很多大小核,cpu的调度可能会影响推理速度
你是说这种吗
想问一下是否有 amd的cpu linux的系统 这样的组合,测试一下速度,想对比一下cpu的影响,因为amd很多全大核,intel很多大小核,cpu的调度可能会影响推理速度
你是说这种吗
最好是普通个人电脑的配置,这个太夸张了😂
想问一下是否有 amd的cpu linux的系统 这样的组合,测试一下速度,想对比一下cpu的影响,因为amd很多全大核,intel很多大小核,cpu的调度可能会影响推理速度
国内租gpu平台不全是amd吗,你可以看看autodl
补一条 Ubuntu 24 10, nvidia driver version: newest, cuda 12.1, 4090d, i7 14700kf, gsv2: 530 tokens/s
ubuntu22 + 13900k + 4090 + CUDA12.4 + GSV2 = 500it/s
这个和我上面windows11那个测试所用的机器是同一台,用的是完全一样的硬件,新加了一条固态,m.2的PCIE也是一样的,安装了ubuntu22.04.5,测试500it/s,windows11只有150it/s左右。
我看图中,你的进程应该就是33964进程吧,我看能占用11g左右的显存,我这边用python api_v2.py只占用了4个G。想问一下,你这边是直接用python api_v2.py的吗?而且你这里面的500it/s,我觉得挺快,我这只有100不到。再请教一下,GSV2是什么?
ubuntu22 + 13900k + 4090 + CUDA12.4 + GSV2 = 500it/s 这个和我上面windows11那个测试所用的机器是同一台,用的是完全一样的硬件,新加了一条固态,m.2的PCIE也是一样的,安装了ubuntu22.04.5,测试500it/s,windows11只有150it/s左右。
我看图中,你的进程应该就是33964进程吧,我看能占用11g左右的显存,我这边用python api_v2.py只占用了4个G。想问一下,你这边是直接用python api_v2.py的吗?而且你这里面的500it/s,我觉得挺快,我这只有100不到。再请教一下,GSV2是什么?
GSV2应该算是新版的GPT-SoVITS,启动的时候控制台会有显示,网页里面也有v2的选项,会有不少优化
显存这块也是经你提醒我才注意到,不知道怎么占用到11G的,可能和这些有关
你可以试一下启用和关闭的区别
感觉瓶颈在cpu单核性能(intel+win11) 我好几台不同显卡 跑出来的速度都差不多的 100 -150 而且cpu有别的占用的时候会会更慢
I hope that everyone enter this issue can share your system, CPU, GPU, inference speed in GPT stage, and the version you use(better to compare v2 as a standard). so that we could see how different metrics affect the inference speed of GSV. 我希望大家可以分享一下你们的系统,cpu,gpu,在GPT的时候的推理速度,还有你用的gsv的版本。 这样我们可以看看到底哪些指标会影响GSV的推理速度 我先分享几个 I will share some of my experiments.