BinLiang-NLP / InterGCN-ABSA

[COLING 2020] Jointly Learning Aspect-Focused and Inter-Aspect Relations with Graph Convolutional Networks for Aspect Sentiment Analysis
https://www.aclweb.org/anthology/2020.coling-main.13/
53 stars 7 forks source link

'.graph_af'和'.graph_inter' #6

Open sha-lala opened 2 years ago

sha-lala commented 2 years ago

作者你好呀,我想请问一下,论文里对这两个图'.graph_af'和'.graph_inter'的描述和代码里的是搞混了吗?不知道是不是我理解错了,就是'.graph_af'的代码其实是写'.graph_inter'的文件里的。还有emm,方便告诉一下参数设置吗?我跑的结果和论文里还相差有点距离~

BinLiang-NLP commented 2 years ago

作者你好呀,我想请问一下,论文里对这两个图'.graph_af'和'.graph_inter'的描述和代码里的是搞混了吗?不知道是不是我理解错了,就是'.graph_af'的代码其实是写'.graph_inter'的文件里的。还有emm,方便告诉一下参数设置吗?我跑的结果和论文里还相差有点距离~

您好, 非常感谢您提出的问题。

我仔细检查了代码,两个图:'.graph_af'和'.graph_inter'的代码和描述是没有搞混的。 您可以执行“python generate_graph_for_aspect.py”生成aspect-focused图,对应论文中的公式2-5。可以执行“python generate_position_con_graph.py”生成完整的inter-aspect图,对应论文中的公式2-6。

关于性能问题,我们使用的参数已在论文给出,您可以参考论文的设置。同时,如果您需要更优的结果,可以根据不同的数据集继续调整参数。请参阅*train.py文件,特别是可以调整“--seed”参数。另外,对于REST14和LAP14数据集,您可以使用更深的GCN layers来获得更优的性能。 此外,因为这几个数据集数据量都比较少。您可以发现在跑模型的时候(包括baselines和我们提出的模型),性能的波动是挺大的。所以我建议您可以调整“--seed”、“--mini-batch”、“--l2reg”、“--hidden_dim”等参数,以及GCN的层数来获取更优的性能。 我们在README的Performance里给出了目前我们根据论文给出的参数,只通过探索不同--seed**在各个数据集上得到的最佳性能。您可以参考一下。

如有其他问题,可以随时联系我。 非常感谢!

Nyyyyy123 commented 6 months ago

作者你好呀,我想请问一下,论文里对这两个图'.graph_af'和'.graph_inter'的描述和代码里的是搞混了吗?不知道是不是我理解错了,就是'.graph_af'的代码其实是写'.graph_inter'的文件里的。还有emm,方便告诉一下参数设置吗?我跑的结果和论文里还相差有点距离~

您好,您现在运行的效果和论文达到相似了吗,我运行的结果f1差的很大