Open hao-qiang opened 5 years ago
老师您好
我在使用tensorflow复现wing loss论文,我先使用CNN6模型和L1 loss训练,在但是精度始终不高,在300w数据库上只能达到NME=7.2%。想向您请教一下具体细节:
数据预处理,根据landmark确定bbox(应该与数据库提供的gt bbox一致),增加bbox宽高中的短边使bbox变为方形,扩大bbox至1.2倍。
每一个训练epoch都对训练集重新进行数据增强,-30°~30°随机旋转,50%随机水平翻转,-5%~5%bbox抖动,颜色抖动,高斯模糊。
输入尺寸64x64x3,像素值为0到1,输出xy范围为0到63。
L1 loss的计算方式为:将预测关键点与gt求L1距离,然后对68*2个x、y值求和,再对一个batch求平均。
模型为CNN6,每个卷积层和全连接层都加了5e-4的L2权重正则。
训练优化器为SGD,momentum=0.9,学习率为3e-5到3e-7线性衰减,训练300epochs,batchsize=8。
请问有哪些细节我没注意到,谢谢您。
老师您好
我在使用tensorflow复现wing loss论文,我先使用CNN6模型和L1 loss训练,在但是精度始终不高,在300w数据库上只能达到NME=7.2%。想向您请教一下具体细节:
数据预处理,根据landmark确定bbox(应该与数据库提供的gt bbox一致),增加bbox宽高中的短边使bbox变为方形,扩大bbox至1.2倍。
每一个训练epoch都对训练集重新进行数据增强,-30°~30°随机旋转,50%随机水平翻转,-5%~5%bbox抖动,颜色抖动,高斯模糊。
输入尺寸64x64x3,像素值为0到1,输出xy范围为0到63。
L1 loss的计算方式为:将预测关键点与gt求L1距离,然后对68*2个x、y值求和,再对一个batch求平均。
模型为CNN6,每个卷积层和全连接层都加了5e-4的L2权重正则。
训练优化器为SGD,momentum=0.9,学习率为3e-5到3e-7线性衰减,训练300epochs,batchsize=8。
请问有哪些细节我没注意到,谢谢您。