Open Sanster opened 6 years ago
thank you for your comprehensive experimental results. Why the results from res101 is worse than those from vgg?
I used same hyper params for training vgg16 and res101, maybe it's not suitable for res101, or maybe res101 needs more steps.
Hi @Sanster 你这里的训练参数是: Train step: 80k lr: 0.00001 但你的代码中是0.001和40k,请问到底哪个值可以得到更加理想的结果? Thanks.
@toxic2m 上面的数据用的是 Train step: 80k lr: 0.00001
练出来的
@Sanster 谢谢! 我是在Caffe上训练的,用lr=0.001, step=40K, iter_size=10可以得到能用的模型。lr=000001无法收敛。 另外我想请教一下你的训练集的ground truth是用哪个程序画出来的? 我想画出来看看现在数据集的label框情况。 Thanks.
@toxic2m 我是自己写了个工具进行处理的:https://github.com/Sanster/AnyLabel
@Sanster 谢谢!我看看你这个React项目怎么跑起来。 另外我是NVIDIA上海这边Nic,可以邮箱或者微信详细沟通一下CTPN训练问题吗? 我邮箱nma@nvidia.com Thanks.
Hi @Sanster 我对比用你的数据集训练的模型和CTPN原作者的模型,我的模型对小字的检测效果比原作者模型差很多,是不是你的数据集中小字太少了? 你最近更新了数据集吗? Thanks.
@toxic2m 小字确实比较少,split minAreaRect 的时候过滤掉了一部分,因为我的应用场景里面小字不多。另外不知道你有没有做 side refine,我记得作者的论文里提到 side refine 对小字有提升
不要意思哈,不太用邮箱,一直没回复你
@Sanster
Nic NVIDIA
@toxic2m 加你微信啦。
@Sanster 请问有mobilenet v2的测试数据么?
Hi @Sanster, I evaluate the model(vgg16_latin_chn_newdata.zip) you provide on the icdar 2013 test, the icdar2013 metric is {"recall": 0.742648401826484, "precision": 0.7948872180451129, "hmean": 0.7678803853179051} which is below 1.5 point with your result, do I miss some thing?
Test Environment:
你好,请问作者原来的模型的测试结果你是自己测试得到的,还是直接引用的作者的结果?我下载的作者的模型,用caffe测试结果并没有作者论文中写的这么好呢?fscore只有0.75左右。
ICDAR13