Tribleave / SCAPT-ABSA

Code for EMNLP 2021 paper: "Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training"
MIT License
91 stars 21 forks source link

能否发布微调前的模型权重 #11

Open 1140310118 opened 1 year ago

1140310118 commented 1 year ago

你好!我注意到您发布了预训练+下游任务上微调的模型权重,请问您能否发布仅预训练的模型权重(BERT)?

非常感谢你们团队所提出的面向ABSA的对比学习预训练方法。我最近也在做预训练相关的工作。我需要在多个下游任务上对多个预训练模型进行比较,这包括你们提出的模型。但在下游任务上微调过的模型,存在数据泄露的风险。因此,如果您可以提供仅预训练的模型权重(在BERT的基础上在yelp和amazon上预训练的模型权重),我的比较将会更加的公平和客观。

希望得到您的帮助!