Closed h2h2h closed 1 month ago
无法从以上描述获取任何定量信息,例如 数据集条数?学习率?下游任务类型?“胡言乱语”指的是什么程度?LoRA微调前的基座效果如何?用full_sft有没有试过?
等等
希望进一步提供分析问题😊
谢谢回复!我的描述确实太业余的。。。数据集大概只有1000条左右,学习率是default的1e-4,想微调用于特定领域的三元组抽取,model和tokenizer的路径填的是使用huggingface-cli下载下来的minimind-v1-small。再次抱歉,这是我第一次发issues,确实太业余了🤦
谢谢回复!我的描述确实太业余的。。。数据集大概只有1000条左右,学习率是default的1e-4,想微调用于特定领域的三元组抽取,model和tokenizer的路径填的是使用huggingface-cli下载下来的minimind-v1-small。再次抱歉,这是我第一次发issues,确实太业余了🤦
没任何关系,feel free,有问题随意交流即可
现在的问答是什么样的效果,有没有样例
尝试一下把学习率改成1e-6及以下
训练集是csv文件,有history,q和a三列,其中history是空列表。将其输入4-lora_sft.py中,因为训练集比较小,就把--save_interval由1000改成了100,训练完成后将得到的safetensors放到2-eval.py中输出直接胡言乱语了...本人是小白,诚恳地请教该如何去微调呢?问题出在了哪里?谢谢🙏