Open hanmingk opened 3 weeks ago
您好~您的问题里说的是在x86 cpu上推理,但是复现环境给的链接是https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/lite ,链接里是arm的环境部署步骤。请问您跑的推理代码是什么,是来自于哪个repo?以及跟您确认下模型是否来自于https://github.com/PaddlePaddle/PaddleOCR?tab=readme-ov-file#%EF%B8%8F-pp-ocr-%E7%B3%BB%E5%88%97%E6%A8%A1%E5%9E%8B%E5%88%97%E8%A1%A8%E6%9B%B4%E6%96%B0%E4%B8%AD ?
您好~您的问题里说的是在x86 cpu上推理,但是复现环境给的链接是https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/lite ,链接里是arm的环境部署步骤。请问您跑的推理代码是什么,是来自于哪个repo?以及跟您确认下模型是否来自于https://github.com/PaddlePaddle/PaddleOCR?tab=readme-ov-file#%EF%B8%8F-pp-ocr-%E7%B3%BB%E5%88%97%E6%A8%A1%E5%9E%8B%E5%88%97%E8%A1%A8%E6%9B%B4%E6%96%B0%E4%B8%AD ?
复现的链接是arm环境的,我将它移植到了x86平台,这是我的复现连接https://github.com/hanmingk/cxx-ocr/tree/main/paddle_lite_ocr 。模型是从这下的https://github.com/PaddlePaddle/PaddleOCR/blob/main/doc/doc_ch/models_list.md
如果是要在x86 cpu平台推理,还是建议使用 Paddle Inference https://www.paddlepaddle.org.cn/inference/v2.6/guides/introduction/index_intro.html
如果是要在x86 cpu平台推理,还是建议使用 Paddle Inference https://www.paddlepaddle.org.cn/inference/v2.6/guides/introduction/index_intro.html
我提供的复现链接中也有Paddle Inference平台的推理,它可以正常运行,我想要整合进app里Paddle Inference太大的,不过我后面使用模型转换成功实现了在mindspore lite推理运行。