Closed vozhuo closed 2 years ago
执行的代码是
./benchmark_models.sh -c
。我用TNN代码库提供一个样例squeezenet_v1.1.tnnproto试了一下是可以正常在我的手机上测试的,但是我转的tnnproto就不能运行,会一直卡住,见下图:
Hi,我也碰到了这个问题,请问你解决了吗,方便的话可以加个联系方式交流下
Hi,我也碰到了这个问题,请问你解决了吗,方便的话可以加个联系方式交流下
没解决,你可以把联系方式发我邮箱。
使用Convert2tnn Docker后问题解决。
TNN推理没有办法进行,我用的README里面提供的TopFormer-T_512x512_2x8_160k-33.6.pth,按照tnn_runtime里的流程转换。
首先我写了一个onnx.sh,用于转换ONNX
convert2onnx.py文件里面我只在torch.onnx.export里面添加了一个opset_version=11,其他未改。
之后执行命令:
bash tools/onnx.sh local_configs/topformer/topformer_tiny_512x512_160k_2x8_ade20k.py <path>/TopFormer-T_512x512_2x8_160k-33.6.pth
输出以下结果:
按照TNN的convert.md自行编译convert2tnn,之后执行命令:
python3 converter.py onnx2tnn <path>/topformer_t.onnx -optimize -v=v3.0
再按照TNN的profiling.md进行Android平台耗时测试。执行的代码是
./benchmark_models.sh -c
。我用TNN代码库提供一个样例squeezenet_v1.1.tnnproto试了一下是可以正常在我的手机上测试的,但是我转的tnnproto就不能运行,会一直卡住,见下图:如果我把TNN转换时的-optimize参数去掉,就不会卡住,但是会报错:
相关工具的版本:
Python环境:
编译日志,删除了一部分正常的: