Open Coco0201 opened 1 year ago
@jerrywgz
你好, 问题1,看起来应该是一样的吧,都是inference_model/faster_rcnn_r50_1x_coco? 问题2,感谢反馈,我们会检查一下代码实现
看代码应该是有对多输出都做处理的,检查下是否是模型的问题呢
服务部署时,命令行参数是
--model_dir inference_model/faster_rcnn_r50_1x_coco
但是执行后打印的不是以上模型,必须修改config.yml才行
看起来好像确实有bug,我们修一下,感谢反馈
梳理了代码,这边打印的时候还没有合并传参的model_dir,所以打印出来只是配置文件里的内容,后面实际是有合并,所以可以起作用的。已提pr更新打印显示为合并后的。
看代码应该是有对多输出都做处理的,检查下是否是模型的问题呢
类Op的_run_process函数中1151行的input_offset_dict写死为[0,1]导致的错误
@thinkthinking
问题确认 Search before asking
Bug组件 Bug Component
Deploy
Bug描述 Describe the Bug
python deploy/serving/python/web_service.py --model_dir inference_model/faster_rcnn_r50_1x_coco &
''''''
python deploy/serving/python/pipeline_http_client.py --image_file demo/000000000139.jpg
'''
'''
复现环境 Environment
PaddlePaddle:2.4.2
Bug描述确认 Bug description confirmation
是否愿意提交PR? Are you willing to submit a PR?