Closed m00nLi closed 2 years ago
你好,我重新复现了一遍,文档和资料却是是有些缺失,我会尽快补上。 对于你这个问题,很明显没有正常推理,看你的资料大概可能有两个原因: 1)你用的lite库应该是fp32的,但是模型是fp16的,需要用fp16的lite库,lite页面第三个链接arm8(FP16)。 2)Picodet是可以支持的,print log里内容需要更新。注意每个模型对应的infer_cfg.json文件,模型链接里遗漏了这个文件,会尽快补充。 其他,NDK_ROOT设置缺失没有提醒,paddle-lite-arm这个命令之前确实是可以用的,但是lite也在不断更新,可能最近不支持了,lite编译还是以lite库官方为主。
我这里测试4中命令仍然是有效的
你好。1. 我下载的paddle-lite armv8库应该是fp32的,跑的模型也是fp32的,我用Netron查看模型,如果模型是fp16的话,输入层后面会是calib层,可以看到是__kernel_type_attr_fp32_to_fp16这些字样;而fp32模型则是一个scale层,应该是将输入除以255.0。所以我确定跑的库和模型都是fp32的。
另外还需要注意一下用的infer_cfg.json需要与模型对应,模型导出的时候一起产生的,还会有十分fuse_normalize的选项,预处理也会不一样。
是模型的问题,你们之前给的链接下的模型,用Netron查看可知,包含了预处理,而代码里面又做了一遍同样的预处理,所以检测结果不对。
嗯,模型链接中增加了对应配置文件,已经更新到repo了
Since this issue has not been updated for more than three months, it will be closed, if it is not solved or there is a follow-up one, please reopen it at any time and we will continue to follow up. It is recommended to pull and try the latest code first. 由于该问题超过三个月未更新,将会被关闭,若问题未解决或有后续问题,请随时重新打开(建议先拉取最新代码进行尝试),我们会继续跟进。
环境
pip install paddlelite
问题
ARM 端实测效果极差。
./main det_runtime_config.json
, 只跑检测模型,检测结果如下:./main keypoint_runtime_config.json
, 跑检测+关键点模型,完全检测不到:deploy/lite编译问题 按照
Paddle-Lite端侧部署
的流程走,前面只说了要准备好Android NDK(R17)以上版本,没说具体版本,要导出NDK_ROOT也没说(我自己导出的是ANDROID_NDK),我用NDK 24编译直接报错,你们的Makefile写法实测只支持NDK 22以下的版本。示例是怎样用的,参数怎么填?
./main det_runtime_config.json
中config.json实测是必须填的,但是提示:Usage: ./main [config_path](option) [image_dir](option)
, 必须填的怎么又是可选的呢? 一开始运行结果不对,查看输出发现:"Please set model arch, "support value : YOLO, SSD, RetinaNet, RCNN, Face."
,不支持你们的PicoDet? 但再仔细看源码其实是有处理PicoDet的。paddle-lite-arm 库怎么编译? 按照 执行
./lite/tools/build_android.sh --arch=armv8 --toolchain=clang --with_cv=ON --with_extra=ON
无任何输出