Closed 17702513221 closed 4 years ago
官方的模型都是带 DCN 模块的,我提供的那个 model 并不能够加载,你要想测试速度,可以先生成随机的权重,然后评测一下。此外,并发并不提高模型速度,只是提高了吞吐,单个模型的计算延迟(包括计算和网络传输等),我在 P40 机器上测试的话,即便做了 int8,整体也要 25 ms 左右,trt inference server 有专门测试性能的工具,能详细服务的时间消耗。
谢谢
您好,请问在官网上怎么训练不带DCN模块的模型,官网是https://github.com/Duankaiwen/CenterNet这个吗。
官网没有,要自己训练
官方tensorrt inference server 的qa/common目录下有对应模型的生成脚本.py文件,例如gen_qa_sequence_models.py
官方的模型都是带 DCN 模块的,我提供的那个 model 并不能够加载,你要想测试速度,可以先生成随机的权重,然后评测一下。此外,并发并不提高模型速度,只是提高了吞吐,单个模型的计算延迟(包括计算和网络传输等),我在 P40 机器上测试的话,即便做了 int8,整体也要 25 ms 左右,trt inference server 有专门测试性能的工具,能详细服务的时间消耗。