Closed ChoiHwimin closed 1 year ago
모델 성능 비교를 확인했을 때 XLM-Roberta-Base와 KoELECTRA-Base가 전반적인 한국어 데이터셋에서 좋은 성능을 보이지만 KLUE 데이터셋에서는 좋지 못한 모습을 보인다. KLUE 데이터셋은 KLUE로 만들어진 KLUE-BERT-base, KLUE-RoBERTa가 가장 좋을 것으로 추측
확실히 다른 모델도 작업을 해봐야할 것 같은데, KLUE로 Pretrain 된 KLUE 베이스 모델이 성능 끌어올리기는 무난한 것 같아요. 휘민님이 저번처럼 다른 모델 실험도 주도적으로 해주시면 좋겠습니다!
Base 모델들 성능 저하 문제점 때문에 이 모델들은 심사에서 탈락하게 되었습니다. 다음 기회를 노려보세요.
복수의 Model 조서 필요성
각각의 모델은 성능 한계가 존재하며 더욱 높은 성능을 위해 다른 모델을 시도할 필요가 있음 복수의 모델을 Ensemble 하여 성능을 높일 수 있음
Baseline의 모델 정보
Baseline에서는 klue/bert-base를 사용 Hugging Face klue/bert-base의 Relation Extraction Task의 평가 점수는 F1 score : 66.44, AUPRC : 66.17
한국어 기반 모델 성능 비교
KLUE-benchmark Relation Extraction Task에 관한 점수가 포함되어 있음 목록 : mBERT-base, XLM-Roberta, KR-BERT-base, koELECTRA-base, KLUE-BERT-base, KLUE-RoBERTa
KcELECTRA Performance Relation Extraction Task에 관한 점수가 포함되어 있지 않음 목록 : KoBERT, XLM-Roberta-Base, HanBERT, KoELECTRA-Base, DistilKoBERT, KcELECTRA-base
성능을 비교할 수 있는 추가적인 정보 공유 또는 어떤 모델이 좋을지 논의가 필요