Open KaiHuangNIPC opened 1 year ago
我建议你加一下
我建议你加一下,要么调低一下学习率。但是我记得我在code-refine跑过unixcoder,好像也是不理想的。
非常感谢您的回复。我通过调整发现<mask0>
非常重要,通过添加这一标记符使得模型训练更加平稳,loss不再出现较大波动。此外我也发现了UniXcoder在基于完美缺陷定位的假设下,其repair accuracy超过了CodeBERT和GraphCodeBERT。
是的,因为预训练的时候,用的是
您好,我还有一个问题需要请教您一下。我看到CodeBERT和GraphCodeBERT的参数量都是125M,请问UniXCoder的参数量是多少呢?
一样
您好,我想要尝试使用UniXcoder实现code-refine任务,这是一个类似于神经机器翻译的下游任务。 我在实现时参考了UniXcoder的Code-generation和Code-summarization这两个下游任务,但是我的实现可能有些问题,表现在训练集上的loss正常收敛,但是xmatch和bleu指标效果并不理想(还不如CodeBERT和GraphCodeBERT),甚至有时候模型的验证效果会随着训练epoch的增加而变得越来越差。我猜想是不是因为我在处理tokens的过程出现了问题,因为我在处理source_tokens和target_tokens时没有添加
<mask0>
,这是否会导致我的实现达不到正常的效果?麻烦您帮我看一下是否是这个原因,感谢!这是我的详细代码:
这是训练日志记录: