Open JiaIcecream opened 1 year ago
FastDeploy基于Triton Inference Server搭建了端到端的服务化部署 可以参考这里的说明:https://github.com/PaddlePaddle/FastDeploy/blob/develop/serving/README_CN.md https://github.com/PaddlePaddle/FastDeploy/blob/develop/examples/vision/ocr/PP-OCRv3/serving/README_CN.md
Checklist:
描述问题
复现
c++部署方式
您是否按照文档教程已经正常运行我们提供的demo?
您是否在demo基础上修改代码内容?还请您提供运行的代码
c#部署方式
您是否按照文档教程已经正常运行我们提供的demo?
您是否在demo基础上修改代码内容?还请您提供运行的代码
如果c# demo无法正常运行,c++ demo是否已经正常运行?
您使用的模型和数据集是?
请提供您出现的报错信息及相关log
环境
如果您使用的是python部署方式,请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号
如果您使用的是c++或c#部署方式,请提供您使用的PaddleX分支、推理引擎(例如PaddleInference)版本号
请提供您使用的操作系统信息,如Linux/Windows/MacOS
请问您使用的CUDA/cuDNN的版本号是?