Open ChuanhongLi opened 4 months ago
是什么卡推理的,看起来是推理过程出现有nan
是什么卡推理的,看起来是推理过程出现有nan
用的 A100-SXM4-80GB
我换到 4090(GeForce RTX 4090 ) 上也是同样的问题
是用的原生的量化脚本进行量化的吗,量化结果的ppl有问题吗
是用的原生的量化脚本进行量化的吗,量化结果的ppl有问题吗
直接用的 run_llama.sh 脚本(修改下模型路径)
=====The ppl of c4 is 11.006427764892578, logPPL is 2.398479461669922
是用的原生的量化脚本进行量化的吗,量化结果的ppl有问题吗
直接用的 run_llama.sh 脚本(修改下模型路径)
=====The ppl of c4 is 11.006427764892578, logPPL is 2.398479461669922
ppl看上去问题不大
方便给一份pt文件的链接么,real_quant和fake_quant的,我们看一下
方便给一份pt文件的链接么,real_quant和fake_quant的,我们看一下
文件在内网,不允许拷贝;模型啥的都是开源版本,没做任何修改,运行脚本也仅改了模型的路径
请问问题解决了么 我用这个量化了一个TTS大模型的模型 也出现了这个
使用 decoupleQ 量化了一个 Llama-2-7b-hf 模型,使用 run_inference_llama.sh 进行推理时,报错如下:
通过添加do_sample=False
推理可以继续运行,但是输出直接乱掉:
请问下,你们有遇到这种情况吗?是否有对应的解决办法? 谢谢!