队伍:天池水也太深了
感谢大家的关注,由于近期很多同学需要数据学习使用,经过和天池的沟通,可以将数据共享给大家学习使用
数据下载地址:
百度网盘 (密码:jp7d)
因为官方给的原始数据压缩包大于4gb,我这里对每一个包进行了分卷压缩,大家注意分卷解压缩使用
相应文件夹创建准备
进入fabric文件夹,创建以下文件夹:
annotations
Annotations
defect_Images
template_Images
训练数据路径移动
将 guangdong1_round2_train_part1_20190924,
guangdong1_round2_train_part2_20190924,
guangdong1_round2_train_part3_20190924和
guangdong1_round2_train2_20191004_images中
defect目录中的所有文件夹下的非模板图片复制到 data/fabric/defect_Images 目录下
将 guangdong1_round2_train_part1_20190924,
guangdong1_round2_train_part2_20190924,
guangdong1_round2_train_part3_20190924和guangdong1_round2_train2_20191004_images中
defect目录中的所有文件夹复制到 data/fabric/template_Images 目录下
label文件合并及格式转换
将round2中两个轮次的label文件合并到 anno_train_round2.json中,然后移动到data/fabric/Annotations 目录下
将刚才的label文件转换为COCO格式,新的label文件 instances_train_20191004_mmd.json 和 instances_train_20191004_mmd_100.json会保存在 data/fabric/annotations 目录下
预训练模型下载
依赖安装编译
创建并激活虚拟环境 conda create -n guangdong python=3.7 -y conda activate guangdong
安装 pytorch conda install pytorch=1.1.0 torchvision=0.3.0 cudatoolkit=10.0 -c pytorch
安装其他依赖 pip install cython && pip --no-cache-dir install -r requirements.txt
编译cuda op等: python setup.py develop
训练
运行: cd train & ./train.sh
训练过程文件及最终权重文件均保存在data目录中
预测
线上docker已经提交过预测全部内容,这里依然认为测试数据挂载在/tcdata
运行: ./run.sh
author:rill
email:18813124313@163.com