由于训练的Epoch较少,检测效果并不是很理想。大家可以自己去调参来提升检测效果。
https://www.bilibili.com/video/BV1hZ4y1H7f9/
conda install pytorch torchvision cudatoolkit=10.1 -c pytorch //安装最新pytorch1.5
MNN/build
文件夹里面生成一个libMNN.so
文件,需要将这个文件复制到person-detector/MNN/mnn/lib
进行替换。conda install 安装包
or
pip install 安装包
detect_imgs.py
就可以检测imgs
文件夹里面的图片。
python detect_imgs.py
cd person-detector/MNN
mkdir build
cd build
cmake ..
make -j8
#### 运行MNN中C++版本
```bash
cd build
./Ultra-face-mnn ../model/version-RFB/617-1.mnn ../imgs/timg.jpg
# 量化之后的版本
cd build
./Ultra-face-mnn ../model/version-RFB/617-1-sq.mnn ../imgs/timg.jpg
train-version-RFB.sh
里面修改。 coco
数据集转成VOC
格式且只有行人检测框的数据集。bash train-version-RFB.sh
if self.is_test:
confidences = F.softmax(confidences, dim=2)
boxes = locations
#boxes = box_utils.convert_locations_to_boxes(
# locations, self.priors, self.config.center_variance, self.config.size_variance
#)
#boxes = box_utils.center_form_to_corner_form(boxes)
return confidences, boxes
然后再运行转换文件。
python convert_to_onnx.py
./MNNConvert -f ONNX --modelFile XXX.onnx --MNNModel XXX.mnn --bizCode biz
cd MNN/build
cmake .. -DMNN_BUILD_QUANTOOLS=on
make -j8
3.2 构建一个pretreatConfig.json文件,代码如下:
{
"format":"RGB",
"mean":[
127.5,
127.5,
127.5
],
"normal":[
0.00784314,
0.00784314,
0.00784314
],
"width":224,
"height":224,
"path":"path/to/images/",
"used_image_num":500,
"feature_quantize_method":"KL",
"weight_quantize_method":"MAX_ABS"
}
3.3 在MNN/build里面运行量化程序。
./quantized.out XXX.mnn XXX-INT8.mnn pretreatConfig.json
https://www.yuque.com/mnn/cn/tool_quantize
https://github.com/Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB
https://github.com/ruinmessi/RFBNet