Open bittergourd1224 opened 5 months ago
指的是不使用TensorRT,只用Paddle Inference,用的是最新的v2.6版本 只在 https://github.com/PaddlePaddle/Paddle-Inference-Demo/blob/90f7c86621a2ea2d27617d430a9de88f9f8762d0/c%2B%2B/gpu/gpu_fp16/resnet50_gpu_fp16.cc#L48 找到了半精度加载模型的方法 但尝试将kHalf修改kInt8,会报错
@ xiaoxiaohehe001 大佬帮忙看看
@bittergourd1224 目前原生 gpu 还不支持 int8 推理,可以尝试使用 trt
@xiaoxiaohehe001 由于TensorRT不同版本的兼容性,以及会导致加载模型速度变慢,故不倾向于使用trt。想问一下是否有gpu支持int8的计划?
几年了,一直不支持的。
不过半精度之前也不支持,现在支持了
请提出你的问题 Please ask your question
指的是不使用TensorRT,只用Paddle Inference,用的是最新的v2.6版本 只在 https://github.com/PaddlePaddle/Paddle-Inference-Demo/blob/90f7c86621a2ea2d27617d430a9de88f9f8762d0/c%2B%2B/gpu/gpu_fp16/resnet50_gpu_fp16.cc#L48 找到了半精度加载模型的方法 但尝试将kHalf修改kInt8,会报错