hoit1302 / kogpt2-wellness-chatbot

kogpt2 심리 케어 챗봇
1 stars 2 forks source link

ModelCheckpoint prefix 파라미터 #1

Open minkyung73 opened 1 year ago

minkyung73 commented 1 year ago

아래와 같은 에러는 어떻게 해결해야 하나요?

INFO:root:Namespace(accelerator=None, accumulate_grad_batches=None, amp_backend='native', amp_level=None, auto_lr_find=False, auto_scale_batch_size=False, auto_select_gpus=False, batch_size=96, benchmark=None, chat=False, check_val_every_n_epoch=1, default_root_dir=None, detect_anomaly=False, deterministic=None, devices=None, enable_checkpointing=True, enable_model_summary=True, enable_progress_bar=True, fast_dev_run=False, gpus=None, gradient_clip_algorithm=None, gradient_clip_val=None, ipus=None, limit_predict_batches=None, limit_test_batches=None, limit_train_batches=None, limit_val_batches=None, log_every_n_steps=50, logger=True, lr=5e-05, max_epochs=None, max_len=64, max_steps=-1, max_time=None, min_epochs=None, min_steps=None, model_params='modelchp/model-last.ckpt', move_metrics_to_cpu=False, multiple_trainloader_mode='max_size_cycle', num_nodes=1, num_processes=None, num_sanity_val_steps=2, overfit_batches=0.0, plugins=None, precision=32, profiler=None, reload_dataloaders_every_n_epochs=0, replace_sampler_ddp=True, resume_from_checkpoint=None, sentiment='0', strategy=None, sync_batchnorm=False, tpu_cores=None, track_grad_norm=-1, train=False, val_check_interval=None, warmup_ratio=0.1, weights_save_path=None)

hoit1302 commented 1 year ago
parser = KoGPT2Chat.add_model_specific_args(parser)
parser = Trainer.add_argparse_args(parser)
args = parser.parse_args()
logging.info(args)

이 부분의 코드를 읽어보면 arguments를 파싱해서 info 레벨의 로그로 출력하도록 하고 있습니다. 참고로 로그 레벨 중 INFO는 정보성 메세지를 나타내는데 사용됩니다. 출력을 원하지 않으면 마지막 줄을 주석처리하면 될 것 같습니다.

minkyung73 commented 1 year ago

네, 감사합니다! 혹시

if __name__ == "__main__":
    if args.train:
        checkpoint_callback = ModelCheckpoint(
            dirpath='model_chp_last',
            filename='{epoch:02d}-{train_loss:.2f}',
            verbose=True,
            save_last=True,
            monitor='train_loss',
            mode='min',
            prefix='model_'
        )

이 ModelCheckpoint에서 prefix라는 파라미터가 없어서 타입에러가 발생하는데 해결방법을 알 수 있을까요?

siyeol97 commented 1 year ago

pytorch lightning의 버전이 안맞아서 그런걸거에요 pytorch lightning의 버전을 다운그레이드해보세요