airockchip / rknn-toolkit2

Other
996 stars 104 forks source link

onnx转rknn遇到opset版本问题,rknn-toolkit2 v2.2.0要求opset<=15 #157

Open EvW1998 opened 2 months ago

EvW1998 commented 2 months ago

在对lightglue模型转rknn的过程中,遇到报错 E load_onnx: Unsupport onnx opset 16, need <= 15! rknn-toolkit2版本为2.2.0

image

我使用的是opset16的onnx模型,模型地址:lightglue-onnx

然而rknn-toolkit2在1.6.0的release中,已经提到支持opset12~19

image

各位有遇到类似问题的吗?有解决方法吗?谢谢

yuyun2000 commented 2 months ago

很奇怪啊,不行你用2.1版本试试,可能是2.2版本的bug;最好你用op15重新转一下

liuqinglong110 commented 4 weeks ago

在对lightglue模型转rknn的过程中,遇到报错 E load_onnx: Unsupport onnx opset 16, need <= 15! rknn-toolkit2版本为2.2.0

image

我使用的是opset16的onnx模型,模型地址:lightglue-onnx

然而rknn-toolkit2在1.6.0的release中,已经提到支持opset12~19

image

各位有遇到类似问题的吗?有解决方法吗?谢谢

您好,我也在移植这个模型。我在导出onnx模型时,设置opset=16。然后在rknn的docker2.2.0中可以成功使用。

EvW1998 commented 4 weeks ago

@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。

另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢

liuqinglong110 commented 4 weeks ago

@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。

另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢

我的Python是3.8版本的。用的是原始模型,没有自己训练,还在移植c++代码。 如果你没有对模型进行修改,那在docker2.2.0环境中,是可以直接转换成功的。问题不大。

liuqinglong110 commented 4 weeks ago

@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。

另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢

您好,请问您已经编写c++推理代码了吗? 我这里遇到了一些问题,想和您一起交流一下。https://github.com/airockchip/rknn-toolkit2/issues/200#issue-2617223433

EvW1998 commented 4 weeks ago

@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢

liuqinglong110 commented 4 weeks ago

@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢

您好,已经给你发邮件了。

liting1045 commented 3 weeks ago

@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢

您好,请问你们在用lightglue进行python lite2推理时,一帧大概需要多长时间呢?C++推理能提升推理速度吗?我现在正在使用rknn lite2测试eloftr,需要1秒多,想继续优化这个速度,可以一起交流下。