Closed ZEROICEWANG closed 7 months ago
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档、常见问题、历史Issue来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ and Github Issue to get the answer.Have a nice day!
经测试非NPU版在手机上可以正常推理,但是调用NPU时便会出现上述情况
NPU支持mobilenetv3模型的,麻烦提供下推理模型,我们这里试试。
https://github.com/PaddlePaddle/PaddleClas/blob/release/2.1/README_cn.md#%E7%A7%BB%E5%8A%A8%E7%AB%AF%E7%B3%BB%E5%88%97 这些mobilenetv3模型是支持的哦 我看你模型组网加了一些hard_swish、squeeze,这些暂时不支持NPU哈~ 目前支持的NPU算子有这些 https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/lite/kernels/npu/bridges/paddle_use_bridges.h
好的,我将hard_swish与squeeze替换掉试一下,谢谢
尝试了一下,替换掉之后仍然有这个问题。 推理模型我传到百度网盘了,谢谢 链接:https://pan.baidu.com/s/1lrFax9Jx3QZXF0fYoyS3DA 提取码:sxjt input size:1x3x224x224 output size: 100
用动态图的方式编写的MobileNetV3, 之后使用ProgramTranslator转换成静态图,用opt转换好的模型,在华为手机上,调用npu运行,不论输入什么数据,输出结果都是一样的(被转换成nb文件的静态图模型,在电脑上可以正常推理),请问可能是哪里出了问题?谢谢! 此外,使用官方提供的mobilenetv1静态图模型转换得到的nb文件在手机上可以正常推理。 版本号: paddlepaddle==2.0 paddlelite==2.8
动态图转静态图代码:
opt转换代码
opt转换过程中输出的部分结果
MobileNetV3代码: