issues
search
zhangnn520
/
chinese_llama_alpaca_lora
llama信息抽取实战
Apache License 2.0
97
stars
10
forks
source link
请问微调的话应该用合并后的大模型还是应该用lora,llama作为base?
#2
Open
hangzeli08
opened
1 year ago
hangzeli08
commented
1 year ago
两种方法都可以吗 还是哪种可以啊 这块我不太懂
zhangnn520
commented
1 year ago
llama_chinese与alpaca合并后用的大模型用作base做微调
两种方法都可以吗 还是哪种可以啊 这块我不太懂