yao8839836 / text_gcn

Graph Convolutional Networks for Text Classification. AAAI 2019
1.35k stars 434 forks source link

关于build_graph中word_vector_map的问题 #90

Open Y0ungMay opened 4 years ago

Y0ungMay commented 4 years ago

你好,我看到build_graph中定义了word_vector_map之后,并没有对他内容进行更新,这个py文件中的后续代码又用到了word_vector_map,请问是怎么回事啊?

yao8839836 commented 4 years ago

@Y0ungMay

你好,后续实际并没有用到word_vector_map, 它一直是一个空的字典,也就是这一句: if word in word_vector_map:

一直不成立。if下面的代码从未执行。

我试过用Glove词向量作为节点特征,发现效果不好,就赋值为空了。

Y0ungMay commented 4 years ago

好的,谢谢

Y0ungMay commented 4 years ago

你好,不知道你是否尝试过用GraphSAGE来进行分类。我主要参考了https://github.com/FighterLYL/GraphNeuralNetwork/tree/master/chapter7 的代码。他用的是cora的数据集,我尝试对R8数据集进行分类预测。他直接下载了分类所需的.x,.y,.allx那些文件,而我借用了你的代码来生成这些文件。输入之后,loss一直为NAN,网上说可能是输入数据有问题,可是我比较了一下感觉没问题,现在就有点不知道怎么办好了。不知道你有没有这方面的经验。 另外一个问题就是,你知道哪里可以下载到你实验数据集的.x,.y,.allx这一类文件吗?

yao8839836 commented 4 years ago

@Y0ungMay

我试过,结果跟你差不多,可能是因为用的one-hot特征,又随机采样邻居,使得能用到的文本中的单词信息,以及全局单词共生信息很少。

x,.y,.allx这一类文件可以去原始GCN,或者高赞GCN模型的Git上找,或者参考build_graph.py自己生成。

Y0ungMay commented 4 years ago

谢谢回复。我按照你说的去找了找,发现kipf用的也是别人处理好的文件,然后顺着他的引用找,也是别人处理好的文件,就有点头疼。我用来测试的,就是你build_graph.py生成的文件,所以想着或许你可能也遇到过这种问题。我自己再去试试看吧。

JialongWang1224 commented 4 years ago

那这样的话,以20ng为例最终的输入的feature是什么?我查看了build_graph在259行的代码,输出x.toarray().sum()查看发现是一个全为0的矩阵,那不就是没有用到word的信息吗