PaddlePaddle / PaddleX

All-in-One Development Tool based on PaddlePaddle(飞桨低代码开发工具)
Apache License 2.0
4.85k stars 955 forks source link

UNet模型导出inference格式的模型后无法调用predictor.predict() #586

Open EntaoChen opened 3 years ago

EntaoChen commented 3 years ago

问题类型:模型部署 问题描述

========================

没有错误信息,进程直接终止:“Process finished with exit code -1073741819 (0xC0000005)”

在aistudio上运行没有问题,在个人环境下运行实例分割inference格式模型也没有问题,只是UNet语义分割inference格式模型无法使用。

环境: windows10 python3.7 paddlex 1.3.5 paddlepaddle 2.0.0

jiangjiajun commented 3 years ago

你好,请问模型来源于哪里呢?另外UNet在预测时,是使用CPU预测还是GPU预测的

EntaoChen commented 3 years ago

模型是直接调用代码训练获得的:https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/semantic_segmentation/unet.py

本地部署预测时使用的是cpu

FlyingQianMM commented 3 years ago

我们参考您前面给出的环境信息进行了测试,unet inference model可以正常使用predictor.predict进行cpu预测,我们的测试环境如下: windows10 python3.7.9 paddlex 1.3.5 paddlepaddle_gpu-2.0.0.post10.0 or paddlepaddle-2.0.0 测试代码如下: image

麻烦您给出更为详细的环境和代码说明,方便我们复现您遇到的问题。