Closed badbubble closed 6 years ago
@ETCartman 训练前期会出现这种 情况,而且这个误差还很大,一般误差要降到0.0x才算训练的比较好
@wushilian 好的,谢谢 我继续训练
@wushilian 训练好慢啊... 您之前有训练过吗? gtx1070训练了快6个小时 按照这个趋势1个epoch能降到2.XX 您也这样吗?
@ETCartman 你的学习率是多少,我1080ti训了2,3天
@wushilian 0.001
@ETCartman 学习率有点大,可能会发散,改成1e-4吧
@wushilian 好的
我也改的跟cartman差不多,用的训练集应该也是一个,训了两天,马上结束第二个epoch,loss在2.5左右就不降了,学习率0.0001
@wushilian 你最终的loss是多少,这个中文的5990
@zhangtao22 你用的什么优化器,我最终的误差是0.0x
就是你的代码,优化器都没有改,就把学习率改成了0.0001.你也是训的5990这个中文嘛?
@ETCartman 你这个loss现在降到多少了?
@zhangtao22 换成adam试试
你adam用的参数是多少,谢谢
默认参数
learning_rate是0.0001?
这个infer的时候图片大小必须和训练时候一样尺寸嘛?我送272*32的进去报了一大堆错误
2018-04-23 15:11:40.398022: W tensorflow/core/framework/op_kernel.cc:1192] Invalid argument: ConcatOp : Dimensions of inputs should match: shape[0] = [64,6250] vs. shape[1] = [1,256]
[[Node: decode_1/decoder/while/BasicDecoderStep/decoder/attention_wrapper/attention_wrapper/lstm_cell/lstm_cell/lstm_cell/concat = ConcatV2[N=2, T=DT_FLOAT, Tidx=DT_INT32, _device="/job:localhost/replica:0/task:0/gpu:0"](decode_1/decoder/while/BasicDecoderStep/decoder/attention_wrapper/concat, decode_1/decoder/while/Identity_4, decode_1/decoder/while/BasicDecoderStep/decoder/attention_wrapper/attention_wrapper/lstm_cell/lstm_cell/lstm_cell/concat/axis)]]
Traceback (most recent call last):
File "infer.py", line 22, in
Caused by op u'decode_1/decoder/while/BasicDecoderStep/decoder/attention_wrapper/attention_wrapper/lstm_cell/lstm_cell/lstm_cell/concat', defined at:
@zhangtao22 我没跑, 今跑一下, 明天看一下结果
@zhangtao22 你这个问题是由于forward的时候BATCH_SIZE还是64,但是你只输入了一张图片的原因,如果每次直接输入64张图片就不会报错了,会输出64个预测结果。但是我不知道如何只输入一张图片预测,我把问题贴在这里https://github.com/wushilian/CRNN_Attention_OCR_Chinese/issues/17 了,希望大家可以帮忙解答一下,谢谢
@yourlovedu 谢谢,这种。。。
@zhangtao22 不客气,那么怎么单张图片预测呢?有没有什么好的办法 @wushilian
您好, 我按照train.txt生成了数据,然后修改了一下代码,但是发现预测结果总是 '的', 是因为训练的次数不够多 还是我改的代码有问题?
config.py 主要是加了一个数据批量读入的功能 还把图片尺寸改成280*32了 不知道有没有影响
train.py 调了一下代码结构, 把批量读入的函数加进去了