Open yanghb2020 opened 2 years ago
@yanghb2020 你好,
根据我们的经验,
你好,请问有进展吗?我也遇到了同样的问题。
印象里增大模型、增大epoch后会有一定效果,不过afqmc这类任务比普通的分类要难一些,所以确实比较难收敛
------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2023年1月12日(星期四) 凌晨0:18 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [THUDM/P-tuning-v2] 中文句对分类任务不收敛 (Issue #44)
你好,请问有进展吗?我也遇到了同样的问题。
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>
你好,ptuningv2代码在蚂蚁金服语义相似度任务上没办法收敛,最终表现为全部预测样本数较多的类别,prompt长度为4、8、12、lr为1e-3, 1e-2, 1e-4均如此。 如果连同bert的参数一起更新,则可以正常训练,说明数据、代码没有问题,请问有什么其他的可能方向?