Closed fst813 closed 11 months ago
合并再推理速度同样很慢
同问
@Qyf007 应该是训崩了,模型没有正确终止
@Qyf007 应该是训崩了,模型没有正确终止 怎么看是不是训崩了呢?
{ "best_metric": null, "best_model_checkpoint": null, "epoch": 2.6879999999999997, "eval_steps": 500, "global_step": 21, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 2.69, "step": 21, "total_flos": 0.0, "train_loss": 0.4635912577311198, "train_runtime": 31519.1577, "train_samples_per_second": 0.095, "train_steps_per_second": 0.001 } ], "logging_steps": 100, "max_steps": 21, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 500, "total_flos": 0.0, "train_batch_size": 1, "trial_name": null, "trial_params": null } 我训练完state文件是这样的,怎么能看出来是不是训崩了呢?
@wanghanone 看看推理结果是不是乱了或者停不下来了
@wanghanone 看看推理结果是不是乱了或者停不下来了
有的时候会停不下来,但是大部分还是可以正常回答。
在模型上直接进行dpo训练,没有加载sft的lora参数,训练参数如下:
训练一切正常。 推理参数如下:
推理速度比之前sft的慢了将近10倍,是我参数有什么问题吗?