l294265421 / AC-MIMLLN

[EMNLP 2020] Multi-Instance Multi-Label Learning Networks for Aspect-Category Sentiment Analysis
https://aclanthology.org/2020.emnlp-main.287.pdf
MIT License
31 stars 2 forks source link

情感极性疑问 #2

Open monk678 opened 2 years ago

monk678 commented 2 years ago

感谢作者无私开源代码~

本文的提到的模型,解决aspect级的情感分类吧,一共有N个方面,每个方面有3类。 但是,不应该再多出一个类来表示评论中是否包含该方面的信息吗?针对每个方面进行情感分类的时候,用的是交叉熵损失函数吧。这样的话,不就默认评论包含所有的aspect category吗?

l294265421 commented 2 years ago

感觉您对我们工作的关注。期望下面能回答您的问题:

  1. 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
  2. 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
  3. 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。
monk678 commented 2 years ago

感谢回答这么仔细,您的回答很好地解答了我的困惑

gutianyi commented 2 years ago

感觉您对我们工作的关注。期望下面能回答您的问题:

  1. 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
  2. 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
  3. 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。

您好我想询问一下,如果按照"为了保证attention模块能发挥作用,上下文句子表示部分比较简单"的说法,那是不是ACD部分如果使用双向LSTM来辅助ACSA模型的效果是不是就是比单向LSTM要差,这块是有做实验嘛~

l294265421 commented 2 years ago
  1. "为了保证attention模块能发挥作用,上下文句子表示部分比较简单",可以参考这篇论文 Attention is not not Explanation https://aclanthology.org/D19-1002.pdf
  2. 当时ACD部分是试过双向LSTM的,具体结果记不清了,需要找下。记得比较清楚的是,可视化效果会变差,就是attention权重大的词,不一定是我们认为重要的词。
gutianyi commented 2 years ago

恩恩 了解了 感谢