THUDM / P-tuning-v2

An optimized deep prompt tuning strategy comparable to fine-tuning across scales and tasks
Apache License 2.0
1.96k stars 198 forks source link

微调结果不收敛是什么原因? #57

Open xuji755 opened 1 year ago

xuji755 commented 1 year ago

从理论上觉得使用CHATGLM+PTUNING来做领域知识问答是可行的。不过我最近做了一些测试,发现我的微调结果不收敛,微调样本产生的效果不佳。不知道是我的方法有问题还是我微调样本太少。 目前我针对数据库服务器CPU使用率过高的一个单一问题,做了差不多1000个训练样本。不过从目前的训练效果来看,依然不是很好。请教一下,这方面有什么技巧吗?我是个新手,请多指教。