Open 2019switch opened 1 year ago
你是不是用的yolov5s.onnx 我前两天也是我以为两个onnx模型文件和大佬这个是一样的 结果也全部是负数 你可以换成博主那个测试一下应该没问题的
你好,我想问一下,我推理过程中出现报错,报错的原因是跟onnxruntime有关,我用的是onnxruntime1.15.0版本 报错位置:
我改了上面因为onnxruntime版本不兼容的问题,改了下面两个地方,模型读取是成功的,但是Detect部分在预处理的过程中出错了: 请问,您使用的onnxruntime是什么版本?是否会出现该情况?
我检查出来了,是我的onnxruntime版本太高,降成1.10.0版本就可以顺利推理!
我检查出来了,是我的onnxruntime版本太高,降成1.10.0版本就可以顺利推理!
对的 红色框出来的onnxruntime版本1.15是会出现问题的 我测试过 如果你想用这个GetInputNameAllocated方法的话 你需要降级onnx的版本 这是我之前看到的一个issue 上面也是类似的问题 你可以浏览一下
题的 我测试过 如果你想用这个GetInputNameAllocated方法的话 你需要降级onnx的版本 这是我之前看到的一个issue 上面也是类似的问题 你可以浏览一
嗯嗯,已经能跑通了,但是测试了一下,YOLOv5-Lite-e(onnx文件2.6M)和YOLOv5-n(onnx文件7.16M)相比,推理时间更慢,YOLOv5-Lite-e的CPU推理时间29ms,YOLOv5-n的CPU推理时间为19ms,不知道您是否有对比过这两种模型的速度?会出现这种情况吗?
题的 我测试过 如果你想用这个GetInputNameAllocated方法的话 你需要降级onnx的版本 这是我之前看到的一个issue 上面也是类似的问题 你可以浏览一
嗯嗯,已经能跑通了,但是测试了一下,YOLOv5-Lite-e(onnx文件2.6M)和YOLOv5-n(onnx文件7.16M)相比,推理时间更慢,YOLOv5-Lite-e的CPU推理时间29ms,YOLOv5-n的CPU推理时间为19ms,不知道您是否有对比过这两种模型的速度?会出现这种情况吗?
你好 目前我没有对比过速度 kennel不能回答你的问题
hello 请问你们有做其他的处理吗? 我的标定框也是负数,换了onnx版本也是,我的是cpu来跑的,会不会和这个有关系
@defzhangaa 我觉得应该不会是CPU的问题,我测试过,CPU推理是正常的结果。你的模型文件、类别文件、待检测的图片是否正确?
@defzhangaa 我觉得应该不会是CPU的问题,我测试过,CPU推理是正常的结果。你的模型文件、类别文件、待检测的图片是否正确?
这些都没问题呢,就很奇怪,我用py跑的话结果是正确的,感觉应该不是模型的问题
@defzhangaa 我做这个有点久了,印象中是没有改过啥代码的,只是替换了onnx模型文件和names的文件,并添加了测试时间的代码。
@defzhangaa 我做这个有点久了,印象中是没有改过啥代码的,只是替换了onnx模型文件和names的文件,并添加了测试时间的代码。
害,我也是不知道哪里出现的问题。。。没事没事,不行直接去跑v5lite官方那些cpp demo了hhh
你是不是用的yolov5s.onnx 我前两天也是我以为两个onnx模型文件和大佬这个是一样的 结果也全部是负数 你可以换成博主那个测试一下应该没问题的