ZhuiyiTechnology / WoBERT

以词为基本单位的中文BERT
Apache License 2.0
455 stars 69 forks source link

关于unilm文本生成 #8

Open thinkingmanyangyang opened 3 years ago

thinkingmanyangyang commented 3 years ago

苏神您好,我看了下您那个自动生成标题的代码,有一个关于预测时批次处理的问题。举个例子,输入时sentence1和sentence2,经过tokenizer的处理后会变成[cls s1 sep s2 sep padding]的形式。但是在预测的时候时由于没有sentence2,把输入padding到同一长度后会变为[cls s1 sep padding],那么sentence2相对于训练时候的position ids会比原来偏移量多了padding的数目,请问这个会对模型的预测有问题吗?bert4keras的源码有些长,我理解的也比较浅薄,希望苏神可以解答一下,多谢。

bojone commented 3 years ago

预测的时候是单个样本进行的,没有padding