Open fanruifeng opened 1 year ago
需要先参照PaddleDetection的导出文档https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.5/deploy/EXPORT_ONNX_MODEL.md 将模型导出为部署模型。
此外PaddleX的部署代码我们已经重构升级,开源了新的部署产品FastDeploy,支持CPU/GPU以及更多硬件,同时支持不同推理引擎,包括Paddle Inference/Paddle Lite/ONNX Runtime/OpenVINO/TensorRT, 示例参考 https://github.com/PaddlePaddle/FastDeploy/tree/release/1.0.2/examples/vision/detection/paddledetection
需要先参照PaddleDetection的导出文档https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.5/deploy/EXPORT_ONNX_MODEL.md 将模型导出为部署模型。
此外PaddleX的部署代码我们已经重构升级,开源了新的部署产品FastDeploy,支持CPU/GPU以及更多硬件,同时支持不同推理引擎,包括Paddle Inference/Paddle Lite/ONNX Runtime/OpenVINO/TensorRT, 示例参考 https://github.com/PaddlePaddle/FastDeploy/tree/release/1.0.2/examples/vision/detection/paddledetection
好的 谢谢老师, 我去了解下fastDeploy ;
可是不对啊,楼上所说的链接是PaddleDetection在fastDeploy上的部署啊,和paddlex有啥关系,刚去看了fastD的git简介,还是不支持paddlex啊。。。
可是不对啊,楼上所说的链接是PaddleDetection在fastDeploy上的部署啊,和paddlex有啥关系,刚去看了fastD的git简介,还是不支持paddlex啊。。。
意思就是跳过paddlex,直接用fastDeploy来部署就可以了
目前paddleDetection的模型有: model_final.pdopt 、 model_final.pdparams ; 没有json文件 和 model.xml 可以将这个模型 用paddleX 导出 并部署不