Closed lpt-hub closed 3 years ago
请把报错前面一起截全给我看看
你是用paddle seg导出的模型?
请把报错前面一起截全给我看看
你是用paddle seg导出的模型?
是的,用paddleseg的export导出模型的。 报错截图:
模型的输入输出:
1.除了输入x节点的shape,你应该手动填写了其他四个节点的max min optim input_shape(可以三个先填一样的,跑通后再支持范围的shape)。请对照可视化软件中shape信息,看填写是否正确。 一般报错都是填写问题
2.cuda11 cudnn8对应的trt应该是7.2(inference包里有个version.txt文件,里边也有版本信息),检查下trt版本。
模型的输入输出:
老铁 你这个问题解决了吗
环境:win10,cuda11,paddleseg2.3,paddlex2.0,bisenetv2
模型导出命令:python export.py --config configs\quick_start/bisenet_optic_disc_512x512_1k-100000.yml --model_path output\best_model\model.pdparams --input_shape 1 3 1024 1024 --save_dir output
推理命令:tensorrt_infer.exe --model_filename=model/model.pdmodel --params_filename=model/model.pdiparams --cfg_file=model/deploy.yaml --image=Z:\Member_dir\lpt\paddle\dataset\saveImg/1.jpg --model_type=seg
报错报错情况:
老铁 你这个问题解决了吗 我也遇见相同问题
环境:win10,cuda11,paddleseg2.3,paddlex2.0,bisenetv2
模型导出命令:python export.py --config configs\quick_start/bisenet_optic_disc_512x512_1k-100000.yml --model_path output\best_model\model.pdparams --input_shape 1 3 1024 1024 --save_dir output
推理命令:tensorrt_infer.exe --model_filename=model/model.pdmodel --params_filename=model/model.pdiparams --cfg_file=model/deploy.yaml --image=Z:\Member_dir\lpt\paddle\dataset\saveImg/1.jpg --model_type=seg
报错报错情况: