Open WEI-6 opened 2 years ago
剪枝后的onnx通过python版tensorrt转成engine文件,但跑在nx上的速度和PT生成engine速度一样,还有疑惑的是剪枝后生成的模型居然比PT文件直接转engine文件大不少。 我的流程是先原yolov5v4代码训练,然后换成楼主提供的v6代码做稀疏训练,接着将模型放到prune代码里进行剪枝,生成的cfg和pt再进行微调训练,转成onnx,最后用py tensorrt生成engine,c++推理,如果流程有什么问题恳请大佬请教
剪枝后的onnx通过python版tensorrt转成engine文件,但跑在nx上的速度和PT生成engine速度一样,还有疑惑的是剪枝后生成的模型居然比PT文件直接转engine文件大不少。 我的流程是先原yolov5v4代码训练,然后换成楼主提供的v6代码做稀疏训练,接着将模型放到prune代码里进行剪枝,生成的cfg和pt再进行微调训练,转成onnx,最后用py tensorrt生成engine,c++推理,如果流程有什么问题恳请大佬请教