Open BaiBaiXu opened 3 years ago
看来TensorRT只支持Resize层用固定的Factor,也就是 downsample_ratio 不支持更改。你可以自己写ONNX导出代码把downsample_ratio固定,然后转TRT
@PeterL1n 你好,使用onnx分支的代码转为onnx之后,onnxruntime.InferenceSession("model.onnx")会报错:
onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load model from model.onnx failed:Type Error: Type parameter (T) bound to different types (tensor(float) and tensor(float16) in node (Conv_19).
@hust-kevin 你的输入必须FP16/32 要和模型符合,downsample_ratio需要为FP32。看文档
up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 步骤二
up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 步骤二
请问这个你解决了吗,我也有相同的错误,我的cpu32 可以运行,切换为gpu 无论是16 还是32 都报错
我也是,ort.InferenceSession时报这种错。
rvm_mobilenetv3_fp16.onnx 转 TensorRT模型失败,图片中转换报错,请问下有什么办法把AIMatting模型成功转 TensorRT模型吗?