Open EvW1998 opened 2 months ago
很奇怪啊,不行你用2.1版本试试,可能是2.2版本的bug;最好你用op15重新转一下
在对lightglue模型转rknn的过程中,遇到报错
E load_onnx: Unsupport onnx opset 16, need <= 15!
rknn-toolkit2版本为2.2.0我使用的是opset16的onnx模型,模型地址:lightglue-onnx
然而rknn-toolkit2在1.6.0的release中,已经提到支持opset12~19
各位有遇到类似问题的吗?有解决方法吗?谢谢
您好,我也在移植这个模型。我在导出onnx模型时,设置opset=16。然后在rknn的docker2.2.0中可以成功使用。
@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。
另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢
@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。
另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢
我的Python是3.8版本的。用的是原始模型,没有自己训练,还在移植c++代码。 如果你没有对模型进行修改,那在docker2.2.0环境中,是可以直接转换成功的。问题不大。
@liuqinglong110 感谢回复,请问docker中的python版本是多少呢?现在怀疑是python版本导致的bug。
另外您是自己训练的模型吗?还是用的仓库中提供的哪一个onnx文件?谢谢
您好,请问您已经编写c++推理代码了吗? 我这里遇到了一些问题,想和您一起交流一下。https://github.com/airockchip/rknn-toolkit2/issues/200#issue-2617223433
@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢
@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢
您好,已经给你发邮件了。
@liuqinglong110 我现在卡在lightglue的onnx转rknn上,之前用loftr时写过C++推理。我的邮箱是ew98@foxmail.com,方便的话可以留下您的联系方式,我们交流一下。感谢
您好,请问你们在用lightglue进行python lite2推理时,一帧大概需要多长时间呢?C++推理能提升推理速度吗?我现在正在使用rknn lite2测试eloftr,需要1秒多,想继续优化这个速度,可以一起交流下。
在对lightglue模型转rknn的过程中,遇到报错
E load_onnx: Unsupport onnx opset 16, need <= 15!
rknn-toolkit2版本为2.2.0我使用的是opset16的onnx模型,模型地址:lightglue-onnx
然而rknn-toolkit2在1.6.0的release中,已经提到支持opset12~19
各位有遇到类似问题的吗?有解决方法吗?谢谢