PeterL1n / RobustVideoMatting

Robust Video Matting in PyTorch, TensorFlow, TensorFlow.js, ONNX, CoreML!
https://peterl1n.github.io/RobustVideoMatting/
GNU General Public License v3.0
8.61k stars 1.14k forks source link

rvm_mobilenetv3_fp16.onnx 转 TensorRT模型失败 #52

Open BaiBaiXu opened 3 years ago

BaiBaiXu commented 3 years ago

rvm_mobilenetv3_fp16.onnx 转 TensorRT模型失败,图片中转换报错,请问下有什么办法把AIMatting模型成功转 TensorRT模型吗?

image

PeterL1n commented 3 years ago

看来TensorRT只支持Resize层用固定的Factor,也就是 downsample_ratio 不支持更改。你可以自己写ONNX导出代码把downsample_ratio固定,然后转TRT

hust-kevin commented 3 years ago

@PeterL1n 你好,使用onnx分支的代码转为onnx之后,onnxruntime.InferenceSession("model.onnx")会报错:

onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load model from model.onnx failed:Type Error: Type parameter (T) bound to different types (tensor(float) and tensor(float16) in node (Conv_19).
PeterL1n commented 3 years ago

@hust-kevin 你的输入必须FP16/32 要和模型符合,downsample_ratio需要为FP32。看文档

sxj731533730 commented 3 years ago

up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 1635862965(1) 步骤二 34K2OD573%@3FU1SBC6(G20

zhanghongyong123456 commented 2 years ago

up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 1635862965(1) 步骤二 34K2OD573%@3FU1SBC6(G20

请问这个你解决了吗,我也有相同的错误,我的cpu32 可以运行,切换为gpu 无论是16 还是32 都报错

dlz620301 commented 1 year ago

image 我也是,ort.InferenceSession时报这种错。