PaddlePaddle / Paddle-Lite

PaddlePaddle High Performance Deep Learning Inference Engine for Mobile and Edge (飞桨高性能深度学习端侧推理引擎)
https://www.paddlepaddle.org.cn/lite
Apache License 2.0
6.93k stars 1.61k forks source link

华为Acend310芯片使用pplite进行推理cpu解码慢,预处理慢,能借助dvpp硬解码和Aipp进行预处理吗 #10486

Open marsbzp opened 6 months ago

marsbzp commented 6 months ago

华为Acend310芯片使用pplite进行推理cpu解码慢,预处理吗慢,能借助dvpp硬解码和Aipp进行预处理吗,有没有相关例子,另外推理前必须传的是cpu上的数据吗,能否直接传设备内存进去

wz1qqx commented 5 months ago

预处理加速需要你结合自己实际的部署环境自行选择方案,pplite只能进行模型的推理加速。传设备内存可以参考 image 进行尝试

hong19860320 commented 5 months ago

暂时不支持 dvpp 和 Aipp