Open TigerHH6866 opened 3 months ago
在独立的musetalk里realtime推理只用8~10g显存 在metahuman里12g的3080Ti爆了 是啥原因呢?能否优化呢? 毕竟16g的卡不多,24g的忑贵
修改一下批次吧
同样是12g的3080ti,跑metahuman里的musetalk实时推理显存不够,有什么优化方法吗
手上有 3080 ti,测试过设置 batch_size 为 8、4 都不行,dtype设置为 float16 直接报错,要解决报错可能需要升级 pytorch,cuda,就不折腾了,看看有没有其他人有更好的办法
在独立的musetalk里realtime推理只用8~10g显存 在metahuman里12g的3080Ti爆了 是啥原因呢?能否优化呢? 毕竟16g的卡不多,24g的忑贵