Open FearAlwaysWorks opened 2 years ago
还有一个疑问。 论文中提到keywords的自动预测方法是BertAbs。 训练BertAbs生成keywords的时候,是用target summaries里提取出的keyword作为target来微调吗?
你好,是用在测试集上用oracle,是为了给一个模型performance的upper bound。Table 10和13有训练用oracle或者automatic predicted的结果对比。
是先从source document提取highlighted sentences,然后再从这些highlighted sentences提取keywords。
谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。
都是先在各个数据集上训练好模型以后再用的,比如MatchSum要用在PubMed上的话,就先在PubMed上从头训练一个模型,不是finetune的。
还有个问题。如果用Auto-predicted来训练guided-summarization,那生成signals的模型是用什么训练得到的呢 对不起又打扰你。。。
比如用在CNN/DM上,就先用oracle从原本的CNNDM的训练集提生成signals的模型的训练集。
谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。 你好,请问这个问题你解决了吗
谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。 你好,请问这个问题你解决了吗
yo~我是王晓也,我已经收到你的邮件了,我会尽快查看的,如果需要我的回复,请您耐心哟~
大佬你好!感谢你的分享,受益匪浅! 我有点没看懂这个结果。请问这个Oracle结果是在测试集上使用Oracle生成signals吗?个人感觉在测试集上使用标签来生成guidance signal有一些牵强。。。 如果是测试集的Oracle的话,请问有没有在训练时分别使用Oracle和automatic predicted的结果对比呀。 不好意思打扰你