PaddlePaddle / PaddleX

All-in-One Development Tool based on PaddlePaddle(飞桨低代码开发工具)
Apache License 2.0
4.91k stars 958 forks source link

请问PaddleX提供的OpenVinoEngineInit的函数,直接可以读取xml获取结果,该函数和直接通过openvino 读取模型,获取输出节点,拿到结果有不同吗,是不是直接通过OpenVinoEngineInit就可以对模型进行加速推理 #1714

Open deeplearing223 opened 1 year ago

deeplearing223 commented 1 year ago

Checklist:

  1. 查找历史相关issue寻求解答
  2. 翻阅FAQ常见问题汇总和答疑
  3. 确认bug是否在新版本里还未修复
  4. 翻阅PaddleX 部署文档说明

描述问题

复现

  1. c++部署方式

    • 您是否按照文档教程已经正常运行我们提供的demo

    • 您是否在demo基础上修改代码内容?还请您提供运行的代码

  2. c#部署方式

    • 您是否按照文档教程已经正常运行我们提供的demo

    • 您是否在demo基础上修改代码内容?还请您提供运行的代码

    • 如果c# demo无法正常运行,c++ demo是否已经正常运行?

  3. 您使用的模型数据集是?

  4. 请提供您出现的报错信息及相关log

环境

  1. 如果您使用的是python部署方式,请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号

  2. 如果您使用的是c++或c#部署方式,请提供您使用的PaddleX分支、推理引擎(例如PaddleInference)版本号

  3. 请提供您使用的操作系统信息,如Linux/Windows/MacOS

  4. 请问您使用的CUDA/cuDNN的版本号是?

deeplearing223 commented 1 year ago

因为最近在做openvino的部署工作,发现传统的加载模型,预处理图像(归一化转通道)然后通过输出节点拿结果,对于paddlepaddle的模型似乎每次都不支持,用的是mobile_netv3large_ssld,每次结果拿的都是相同的不改变,然后通过paddlex官方文档去对openvino进行部署,demo程序已经走通,结果也拿的正确,都是通过OpenVinoEngineInit这个函数去操作的,但是不知道两者是否有什么差别,是否通过该函数就可以实现openvino的所有操作仅对于paddlepaddle而言