Open chengturbo opened 1 year ago
seq2seq的predict.py tokenizer的时候已经设置了max_len 和padding,为什么下面还需要再进一步的判断是否超过100。是否有特殊情况?
这个100是超过100长度的句子,就不修改了
你好,为什么我执行完predict.py之后,生成的句子是分字存在的,且句子不完整,已经从某个地方进行截断了??? 所以这个predict.py 到底是干啥的呢?
seq2seq的predict.py tokenizer的时候已经设置了max_len 和padding,为什么下面还需要再进一步的判断是否超过100。是否有特殊情况?