666DZY666 / micronet

micronet, a model compression and deploy lib. compression: 1、quantization: quantization-aware-training(QAT), High-Bit(>2b)(DoReFa/Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference)、Low-Bit(≤2b)/Ternary and Binary(TWN/BNN/XNOR-Net); post-training-quantization(PTQ), 8-bit(tensorrt); 2、 pruning: normal、regular and group convolutional channel pruning; 3、 group convolution structure; 4、batch-normalization fuse for quantization. deploy: tensorrt, fp32/fp16/int8(ptq-calibration)、op-adapt(upsample)、dynamic_shape
MIT License
2.2k stars 478 forks source link

这个工程能否用于目标检测模型的量化么 #19

Open Blue-Eagle-10 opened 4 years ago

Blue-Eagle-10 commented 4 years ago

作者,

您好!请问,这个工程能否用于目标检测模型的量化么?比如yolov3等等。

谢谢!

misslibra commented 4 years ago

同问! 期待回答!

666DZY666 commented 4 years ago

可以,同组有同学用这个里面的量化模块在检测模型上量化得到了不错的结果。 大家可以试试,现在这个工程移植应该比较容易,可以参照项目进展3.2/3.3的记录。 期待你们的结果。

tianhaoyue commented 4 years ago

作者,

您好!请问,这个工程能否用于目标检测模型的量化么?比如yolov3等等。

谢谢!

请问您的问题解决了吗,可以留个联系方式以便向您请教吗?

LIUhansen commented 4 years ago

有人在yolov3上用quantization成功了吗?

yolunghiu commented 3 years ago

各位大佬, 我把BNFold_Conv2d_Q替换到yolov3-tiny里, loss是nan, 无法训练, 大佬们有没有训练成功的?

Joejwu commented 2 years ago

有做yolov5量化的吗,可以一起交流一下!

arifence commented 2 years ago

有做yolov5量化的吗,可以一起交流一下!

8bit 全量化 无浮点操作 没掉点 可行