Closed tairen99 closed 2 years ago
好奇问下,你的训练数据的标注是按照单词来的吗?我之前按照行文本进行标注的文本数据,漏检情况会好很多,但是还会有一些。
可视化方法:
_maps = np.array(segmentation[0, :, :] * 255).astype(np.uint8)
import cv2
cv2.imwrite("vis_segmentation.png", _maps)
如果丢失的文字区域没有响应或者响应区域不规整,说明是没有训练好; 如果是有响应并且响应区域较好说明是后处理没有处理好。
还有就是考虑到你的文字比较模糊了,预测的时候可以放大输入图像再去预测。
好奇问下,你的训练数据的标注是按照单词来的吗?我之前按照行文本进行标注的文本数据,漏检情况会好很多,但是还会有一些。
是的,按单词来标注的;针对英文的文本,行文本估计在识别的时候,精度会不高
可视化方法:
_maps = np.array(segmentation[0, :, :] * 255).astype(np.uint8) import cv2 cv2.imwrite("vis_segmentation.png", _maps)
如果丢失的文字区域没有响应或者响应区域不规整,说明是没有训练好; 如果是有响应并且响应区域较好说明是后处理没有处理好。
还有就是考虑到你的文字比较模糊了,预测的时候可以放大输入图像再去预测。
谢谢您详细的回复,这个很大程度上解答了我的疑惑。 谢谢!
你好, PaddleOCR 谢谢你们的项目。
在这个链接 我post了类似的问题,但是得到的帮助是采用其他的方法。我想请教您 如果我还是想采用 DB 方法来做文字检测, 该如何减少或者消除 DB检测方法推理时丢失 清晰的文字?
具体问题如下图所示:
我尝试了在推理阶段 将 PostProcess 中的参数进行修改,比如: thresh: 0.1 box_thresh: 0.2 同时也增加了 “limit_side_len” 的参数。
可是上述问题依然存在
请问我应该如何改善,或者解决这个问题(从模型训练, PostProcess, 还有其他方面等等)? 还请指教, 谢谢您!
我现在的训练配置文件 训练和后处理如下,其他的部分与默认相同: