Closed yjhuasheng closed 4 years ago
一般是由于网络比较小, 一定尺度范围内的图像,一次前向过程中,GPU的核心计算单元并没有被用完导致时间消耗没有增加
我分别测的320x240,480x640,720x1280,1280x1920尺度的前向过程的时间,我是直接resiez的,可是时间还是很相近都是8ms,这是什么原因呢?
建议你打印出送入网络之前的shape, 我在GTX1070上测试, 时间与送入网络的尺度成正相关.
好的,我打印看看
我打印出来了,还是这样的结果,测试的时候是单张图像循环测试100次,然后计算平均的前向时间,不同尺度的平均时间还是很相近, torch.Size([1, 3, 1280, 720]) net forward time: 0.0141 torch.Size([1, 3, 1280, 720]) net forward time: 0.0149 ave_time: 0.02009380340576172
torch.Size([1, 3, 640, 480]) net forward time: 0.0130 torch.Size([1, 3, 640, 480]) net forward time: 0.0125 ave_time: 0.019301908016204836
torch.Size([1, 3, 1920, 1080]) net forward time: 0.0140 torch.Size([1, 3, 1920, 1080]) net forward time: 0.0132 ave_time: 0.02022948145866394
请问找到原因了吗?为什么不同尺度的平均时间还是很相近,我用256*256尺寸的图片也需要14ms
for i in range(100): image_path = "./curve/3.jpg" img_raw = cv2.imread(image_path, cv2.IMREAD_COLOR) img = np.float32(img_raw) count=0