Susan19900316 / yolov5_tensorrt_int8

yolov5 tensorrt int8量化方法汇总
55 stars 13 forks source link

qat模型导出为tensorrt后速度反而比原本的fp32模型慢 #13

Open shupinghu opened 4 months ago

shupinghu commented 4 months ago

你好,我将qat模型按照export_onnx_qat.py代码转成onnx,然后再利用trtexec --onnx=qat.onnx --saveEngine=qat.engine --int8获得tensorrt模型,发现推理速度反而不如原始模型使用trtexec --onnx=init.onnx --saveEngine=init.engine --fp32速度,不知道是什么原因?

Susan19900316 commented 4 months ago

抱歉,没遇到这种情况。