zhangnn520 / chinese_llama_alpaca_lora

llama信息抽取实战
Apache License 2.0
97 stars 10 forks source link

请问微调的话应该用合并后的大模型还是应该用lora,llama作为base? #2

Open hangzeli08 opened 1 year ago

hangzeli08 commented 1 year ago

两种方法都可以吗 还是哪种可以啊 这块我不太懂

zhangnn520 commented 1 year ago

llama_chinese与alpaca合并后用的大模型用作base做微调