Open Thove opened 2 years ago
看上去d[0]
是输入文本d[1]
是label、你能确保d[0]
tokenize、转id后的长度与d[1]
只差头尾的2个token吗
看上去
d[0]
是输入文本d[1]
是label、你能确保d[0]
tokenize、转id后的长度与d[1]
只差头尾的2个token吗
非常感谢您的认真回答
这正是问题所在了
你这逻辑上就错了,先有tokenizer,然后对输入进行tokenize,然后根据tokenize的结果构建标签。你这是妄想tokenizer按照你所给标签进行对齐么?
提问时请尽可能提供如下信息:
基本信息
核心代码
输出信息
自我尝试
不管什么问题,请先尝试自行解决,“万般努力”之下仍然无法解决再来提问。此处请贴上你的努力过程。 我基本上没有改动太多原本代码,因此报错第一时间认为是我的预处理有问题,因此我尝试过修改多次datagenerater,此外我还把batch_size从32改成了10,把输入数据裁剪以适应512的最大长度,修改keras的引用而改用bert4keras.backend中的keras,修改dense层的大小,但都失败了 我百思不得其解的是,为什么明明可以训练几个batch,却还在之后报错。我同样尝试过修改学习率为2e-6,这依然没有奏效。 经过调试,我的数据生成器每次生成的三条数据都有着完美的一样大小。