-
From [Algorithmic Simplicity](https://www.youtube.com/@algorithmicsimplicity):
- [x] [Why Does Diffusion Work Better than Auto-Regression? - YouTube](https://www.youtube.com/watch?v=zc5NTeJbk-k)
-…
-
## 一言でいうと
与えられたグラフのノードを半教師ありクラスタリングする。既存の研究では隣接ノードは同じクラスであるという前提を正則化項として加えていたためモデルのキャパシティが制限されていたが(エッジのもつ情報はsimilarityとは限らない)、グラフ構造をニューラルネットとして表現することでその制約を取り払った。各Layerにおいて隣接行列が登場するので例えば3層ネットワークの場合は3段…
-
## 一言でいうと
知識ベースのようなグラフを畳み込みリンクやノードのエンティティを推定する研究。リンクする周辺ノードをそれぞれ重みをかけて合計していくが、in/outの方向を区別し、また自己ループを考慮する。ただこのままだとリンクが多い場合パラメーターが増え普通に過学習するので、重み行列の数を絞っている(B個のVを用意して、それらにリンクごとのスカラー係数aを書けることでWを計算する)。
…
-
### Main problem:
The main problem of the paper is the ability to train graph convolutional networks (GCNs) on dynamic graphs, which are graphs that change over time.
### Applications:
The propos…
-
Hi,
Thank you for your great contribution to science.
I have a question and wondering if DESlib can be applied for GCNs or is there any other library similar to DESlib algorithms that they have ex…
-
## 一言でいうと
Graph Convolutionと強化学習を組み合わせて、化合物を生成する研究。Graph Convolutionにより各ノードの特徴を計算し(結合方式を加味している)、行動としてLink Predictionの要領で2つのノードと結合方式を決定する。本物との識別性(敵対的loss)と結合ルール(原子価)、ドメイン固有の物性を報酬とする
![image](http…
-
# On the Global Self-attention Mechanism for Graph Convolutional Networks [[Wang+, 20](https://arxiv.org/abs/2010.10711)]
## Abstract
- Apply Global self-attention (GSA) to GCNs
- GSA allows GCNs…
-
Suggested list of courses would be:
- An introduction to deep learning **
- How to train a neural network
- Regularisation in neural networks
- Deep Bayesian neural networks
- Conv…
-
|논문|Graph Convolutional Networks for Text Classification|
|--|--|
|저자|Liang Yao, Chengsheng Mao, Yuan Luo|
|링크|https://arxiv.org/abs/1809.05679|
|학회|AAAI 2019|
# Contents
## 1. 초록은 뭐라고 말하고 있어 …
-
我是新手,论文中的意思是,TextGNN对于新的测试集不能使用(也就是说不能通过保存模型,然后预测),我这样的理解对不对?
那么FastTextGNN可以预测新的测试集,是这样吗?是怎么做到的