Closed PYMAQ closed 2 years ago
parser.add_argument("-alpha", default=0.6, type=float)
parser.add_argument("-beam_size", default=3, type=int)
parser.add_argument("-min_length", default=10, type=int)
parser.add_argument("-max_length", default=100, type=int)
The argument 'min_length' controls the minimum decoding length.
1.目前用model_step_12000.pt的模型去预测,有些输出的很长(长的输出,看上去跟参考摘要长度差不多),有些就很少的输出(短的输出,看上去是参考摘要长度的1/5),这是为什么呢?是不是因为我的模型还没有训练完成,也就是model_step_80000.pt还没有跑出来。 2.min_length我改了,不过输出的有很多#号,这也算长度吗?
07 月 23 日 07 时 ##到 年 07 [unused7] [unused8] [unused8] [unused8] [unused7] [unused8] [unused7] [unused7] [unused8] # [unused8] [unused8] # [unused7] [unused8] [unused6] [unused8] [unused8] [unused6] [unused7] [unused8] 为什么生成的摘要中很多例子是这样的([unused]这种unk标记符很多)?但是有些就生成挺好的(长度和输出符合预期),请问这是需要改哪里吗?
min_length 设置太大,会强制模型输出不符合语言模型的token。
生成摘要有的过短有的过长,有可能是因为训练数据噪声多,或者训练样本的标准摘要长度差异较大。可以在训练时过滤掉一些太短摘要的训练样本。
博主好,我也遇到过生成的摘要长度太短的问题,然后修改了min/max_length、alpha等参数后,效果不是很理想。 请问我怎么可以让生成的语句更长一点,而且更多的去拷贝并忠于原文内容呢?
如果需要实际场景应用,有几个方面可以改进。
谢谢大佬!