Closed vv521 closed 5 months ago
还有一个问题就是继续训练的时候训练精度只有改为fp16才能loss不为0,训练和验证的loss也都偏向比0.1更小的数,不知上述两个问题是源于数据集太小的原因
lora训练的精度是bf16,继续训练用fp16会出问题。
用bf16训练会驯练两下就开始loss为0了,/(ㄒoㄒ)/~~
train的loss非常小,验证集的loss基本上偏向于0,这种情况是不是训练的数据集太小了呀
有可能,你可以混一些其他的IE数据集一起训练。同时设置合适的val_set_size(验证集大小)
请问您还有其他问题吗?
还有一个问题就是继续训练的时候训练精度只有改为fp16才能loss不为0,训练和验证的loss也都偏向比0.1更小的数,不知上述两个问题是源于数据集太小的原因