Closed panp4n closed 8 months ago
你这个报错我也无法确定具体问题是什么,ExecuteKernel看起来有点像是GPU调用失败或者onnx的后端设置不对问题,如果你调用的是GPU,先转为cpu看下推理对不对,cpu可以推理的话那就是你的cuda环境啥的出问题了。
感谢解答。python onnxruntime用这个cuda环境可以正常推理。我再试试不同的ORT版本。
python和cpp的ort环境都不一样,这个是单独的环境,不代表你py可以cpp下面也是对的。我不确定你的python环境中有没有安装单独的cuda环境,这个和系统环境下面的cuda又不一样了。
大佬你好,我在使用onnxruntime推理yolov8 seg时,运行到run函数时报下面的错。预处理、模型加载逻辑和您的一样。且模型加载成功,模型信息都正常获取。 使用CUDA推理也是run函数是中止,但没有下面的报错。 2024-01-09 09:13:55.2209103 [E:onnxruntime:, sequential_executor.cc:514 onnxruntime::ExecuteKernel] Non-zero status code returned while running Conv node. Name:'194_nchwc' Status Message: D:\a_work\1\s\include\onnxruntime\core/common/logging/logging.h:294 onnxruntime::logging::LoggingManager::DefaultLogger Attempt to use DefaultLogger but none has been registered.
该模型使用openvino C++是可以正常推理。 这是哪一步出了问题呢?