Open jiangxinufo opened 3 years ago
目前使用了docker+nvidia-docker2+tensorRT+TensorFlow-Serving环境对savemodel模型进行了部署,通过客户端-服务器模式测试,时间大概4秒左右,这个性能是无法满足在线应用的。(服务器是tesla T4 16g) 想请教下,各位大神有什么更好的解决方案吗?或者调用模型的方式,本地化部署等等。谢谢
服务器本地视频模式推理,大概每秒17帧
请问你解决了这个问题嘛,目前这的推理时间为500ms左右,达不到线上部署的要求
目前使用了docker+nvidia-docker2+tensorRT+TensorFlow-Serving环境对savemodel模型进行了部署,通过客户端-服务器模式测试,时间大概4秒左右,这个性能是无法满足在线应用的。(服务器是tesla T4 16g) 想请教下,各位大神有什么更好的解决方案吗?或者调用模型的方式,本地化部署等等。谢谢