Open m00nLi opened 3 days ago
model_config应该指定的是模型配置而不是训练配置,例如: configs/relation_detr/relation_detr_resnet50_800_1333.py
model_config应该指定的是模型配置而不是训练配置,例如: configs/relation_detr/relation_detr_resnet50_800_1333.py
好的,换成模型配置没问题了
导出ONNX时报错:
torch.onnx.errors.UnsupportedOperatorError: Exporting the operator 'aten::_upsample_bilinear2d_aa' to ONNX opset version 17 is not supported. Please feel free to request support or submit a pull request on PyTorch GitHub: https://github.com/pytorch/pytorch/issues.
ONNX版本
onnx 1.16.2
onnxruntime 1.16.0
onnxsim 0.4.36
rapidocr-onnxruntime 1.3.24
Hi @m00nLi 这是因为pytorch不支持抗锯齿resize导出ONNX, 请把models/detectors/base_detector.py第75行的antialias设置为False再导出
Hi @m00nLi 这是因为pytorch不支持抗锯齿resize导出ONNX, 请把models/detectors/base_detector.py第75行的antialias设置为False再导出
设置为False后还是会报同样的错,opset 11也不行
请看一下报的错误是aten::_upsample_bilinear2d_aa
还是aten::_upsample_bilinear2d
。带_aa
版本的算子目前pytorch都不支持,而设置为False使用的是不带_aa
版本的ONNX算子,这个算子可能在opset 11不支持,但在opset 17是支持的,请试试opset 17可以吗?
请看一下报的错误是
aten::_upsample_bilinear2d_aa
还是aten::_upsample_bilinear2d
。带_aa
版本的算子目前pytorch都不支持,而设置为False使用的是不带_aa
版本的ONNX算子,这个算子可能在opset 11不支持,但在opset 17是支持的,请试试opset 17可以吗? 报错的是带_aa的算子,那请问作者目前有什么办法可以把pt转成onnx么,麻烦给个解决方案吧,谢谢
Hi @SEU-ZWW 如果报错的是带_aa
的算子,说明antialias还是True。麻烦检查一下参数设置,可以调试看看为什么antialias设置为False没有生效。
Bug
训练正常,但是使用
inference.py
推理或者转换ONNX时报错:环境信息
补充信息
No response