fengwang / Stable-Diffusion-NCNN

Stable Diffusion inference in pure C++
59 stars 5 forks source link

Int8量化模型 #1

Open hubin858130 opened 1 year ago

hubin858130 commented 1 year ago

发现一个针对SD的onnx的int8量化脚本量化好的库,这个能转出ncnn的int8模型不?

fengwang commented 1 year ago

似乎可行。 但是这个模型是 dynamic quantization 的,也就是只有权重被 quantize 到了 int8,模型中间层的输入输出还是 fp32。 我稍后尝试下,看运算速度能提升多少,还有输出是不是会有瑕疵。