Open xinshame opened 2 years ago
Hi 感谢您的关注!请问下您的显卡显存大小有多少呢,以及跑的是哪个数据集。此外算法是transductive setting,需要每次生成全部结点的embedding,您可以拓展成inductive setting的,每次只生成batch内结点的embedding。
Hi 感谢您的关注!请问下您的显卡显存大小有多少呢,以及跑的是哪个数据集。此外算法是transductive setting,需要每次生成全部结点的embedding,您可以拓展成inductive setting的,每次只生成batch内结点的embedding。
显卡内存16G,实际可用14G,数据集是自己构建的数据集,数据量大概是1300w三元组
抱歉迟复,对于transductive learning的算法,结点的个数是制约算法在大规模数据集上训练的主要因素,拓展的思路是改写成inductive learning,您可以参考pyg的训练逻辑:
https://github.com/pyg-team/pytorch_geometric/blob/master/examples/graph_sage_unsup.py
尝试调小batch size到32 依然oom,请问作者有相关的处理思路么