cqu20160901 / yolov8n_onnx_tensorRT_rknn_horizon

yolov8n 部署版本,后处理用python语言和C++语言形式进行改写,便于移植不同平台(onnx、tensorRT、RKNN、Horzion)
134 stars 26 forks source link

请问你是怎么做到板端读取output的数据结构是int8的 #10

Open Newcomer-CL opened 1 year ago

Newcomer-CL commented 1 year ago

我通过yolov8官方export命令导出成onnx格式,设置的opset=11,本来想导出fp16的但是rknn好像不支持。导出的模型转成rknn后板端读取模型返回的输出type是FP32

cqu20160901 commented 1 year ago

导出rknn模型时把 QUANTIZE_ON = True 这个设置为true,导出的模型就是量化后的模型;如果PC端仿真设不设设置true导出的模型返回的输出都是FP32。

Newcomer-CL commented 1 year ago

image 我设置为true了,还是FP32这是为啥

cqu20160901 commented 1 year ago

这是PC端仿真测试环境,在这个环境下输出的结果是FP32;在板端芯片上输出结果是int8

cqu20160901 commented 1 year ago

可以参考我写的一个rknn的 C++ 部署,https://github.com/cqu20160901/yolov8_rknn_Cplusplus

Newcomer-CL commented 1 year ago

我是在PC端转的模型,然后在板端部署,参考的就是你的demo,我把我的模型、图片换了,然后输出显示是FP32