Chinese-Vicuna: A Chinese Instruction-following LLaMA-based Model —— 一个中文低资源的llama+lora方案,结构参考alpaca
4.14k
stars
422
forks
source link
finetune_chat.py为什么要限制MICRO_BATCH_SIZE和GRADIENT_ACCUMULATION_STEPS呀? #170
Closed
grantchenhuarong closed 1 year ago
请问一下为什么需要作如下限定?这样就不能换GPU调整参数玩儿了呢。
是因为如果不相同,就影响最终模型的生成效果么?