LSTM Layer 추가한 모델입니다.
trina.py를 실행하실 때
model = AutoModelForSequenceClassification.from_pretrained(args.model_name, num_labels=args.num_labels)
-> model = Model(args.model_name)
model.resize_token_embeddings(len(args.tokenizer))
-> model.model.resize_token_embeddings(len(args.tokenizer))로 변경해주시면 됩니다.
model save가 pt파일로 이루어지지 않아서 check_point내에 pytorch_model.bin파일을 사용해서 inference를 하게 되어있습니다.
inference.py 실행하실 때 train과정에서 로그 상 가장 성능이 높았던 checkpoing 내 bin파일로 경로 지정해서 save_path 설정하시면 됩니다. 더불어 Inference.py 28번째 코드를 logits = pred_y['logits']로 변경해주셔야 에러가 발생하지 않을겁니다. 이 이유에 대해선 확인 후 해결 해보겠습니다.
LSTM Layer 추가한 모델입니다. trina.py를 실행하실 때 model = AutoModelForSequenceClassification.from_pretrained(args.model_name, num_labels=args.num_labels) -> model = Model(args.model_name) model.resize_token_embeddings(len(args.tokenizer)) -> model.model.resize_token_embeddings(len(args.tokenizer))로 변경해주시면 됩니다.
model save가 pt파일로 이루어지지 않아서 check_point내에 pytorch_model.bin파일을 사용해서 inference를 하게 되어있습니다. inference.py 실행하실 때 train과정에서 로그 상 가장 성능이 높았던 checkpoing 내 bin파일로 경로 지정해서 save_path 설정하시면 됩니다. 더불어 Inference.py 28번째 코드를 logits = pred_y['logits']로 변경해주셔야 에러가 발생하지 않을겁니다. 이 이유에 대해선 확인 후 해결 해보겠습니다.