Open aixuedegege opened 1 year ago
请问问题解决了吗? 我也导不出onnx
没有,没用这个了
已收到邮件,谢谢!
如果你观察paddle2onnx的输出的话,你会发现p2o会检测到这个是一个量化模型。对于量化之后的算子,paddle2onnx没有与其对应的onnx算子,所以无法导出。这是因为本身算子就无法导出还是因为p2o的作者懒呢?在同类框架Pytorch中,torch.onnx.export也无法导出经过量化的算子,所以我认为经过量化之后的模型是没有与其对应的onnx算子的,因而也无法导出。如果想要导出为onnx并且实现模型压缩的话,建议在训练的时候不进行量化处理,在导出onnx之后单独使用onnxslim库进行模型优化。
运行如下代码报错了:[Paddle2ONNX] Oops, there are some operators not supported yet,including fake_channel_wise_quantize_dequantize_abs_max,fake_quantize_dequantize_moving_average_abs_max,
ppyoloe_l_qat里面的模型是通过如下生成的,我将model、params分别重命名为model.pdmodel、model.pdiparams, infer_cfg.yml是从训练的文件拷贝出来的。再用上述方式推理报了文章开头的错:
训练和导出代码如下:
环境如下:
求破,在线等,急。