Open monk678 opened 2 years ago
感觉您对我们工作的关注。期望下面能回答您的问题:
- 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
- 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
- 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。
感谢回答这么仔细,您的回答很好地解答了我的困惑
感觉您对我们工作的关注。期望下面能回答您的问题:
- 实际上,这篇论文专注解决的问题是:给定一个句子,以及出现在句子里的aspect category,预测这些aspect category的情感。也就是说,我们假设aspect category是已知的(或由其它模块来预测),不关注预测句子里是否提到了某个aspect category。这是最常见的aspect category sentiment analysis的设定。(当然,后来也有一些工作,同时识别aspect category和他们的情感)
- 情感分类的时候,是用的交叉熵损失。训练的时候,如果某个aspect category没有出现在句子中,它对于的部分不会计算损失,也不会参与梯度下降。由于假设aspect category已知(或由其它模块来预测),所以,情感分类的时候,不需要再预测句子里是否包含某个aspect category。
- 整个模型,ACD的部分其实是在判断句子中是否包含某个aspect category;但是,这个部分的初衷是作为辅助任务发现aspect category相关的词,为了保证attention模块能发挥作用,上下文句子表示部分比较简单,直接用于预测aspect category的话,效果可能不是最好的。
您好我想询问一下,如果按照"为了保证attention模块能发挥作用,上下文句子表示部分比较简单"的说法,那是不是ACD部分如果使用双向LSTM来辅助ACSA模型的效果是不是就是比单向LSTM要差,这块是有做实验嘛~
恩恩 了解了 感谢
感谢作者无私开源代码~
本文的提到的模型,解决aspect级的情感分类吧,一共有N个方面,每个方面有3类。 但是,不应该再多出一个类来表示评论中是否包含该方面的信息吗?针对每个方面进行情感分类的时候,用的是交叉熵损失函数吧。这样的话,不就默认评论包含所有的aspect category吗?