-
_Edit: DOI link https://doi.org/10.1007/978-3-319-21233-3_6_
Hi Dr. Greene et al.,
Here is another paper that I found to have a quite interesting premise: https://arxiv.org/pdf/1503.01919.pdf (apolo…
-
## 一言でいうと
与えられたグラフのノードを半教師ありクラスタリングする。既存の研究では隣接ノードは同じクラスであるという前提を正則化項として加えていたためモデルのキャパシティが制限されていたが(エッジのもつ情報はsimilarityとは限らない)、グラフ構造をニューラルネットとして表現することでその制約を取り払った。各Layerにおいて隣接行列が登場するので例えば3層ネットワークの場合は3段…
-
## 一言でいうと
知識ベースのようなグラフを畳み込みリンクやノードのエンティティを推定する研究。リンクする周辺ノードをそれぞれ重みをかけて合計していくが、in/outの方向を区別し、また自己ループを考慮する。ただこのままだとリンクが多い場合パラメーターが増え普通に過学習するので、重み行列の数を絞っている(B個のVを用意して、それらにリンクごとのスカラー係数aを書けることでWを計算する)。
…
-
## 一言でいうと
オイラー的手法(差分法)とCNNを組み合わせて、非圧縮流体シミュレーションを行う事を提案。CNNを使っているのは通常線形凸最適化手法が適用される圧力算出部分。CNNへの入力は現在の格子点の速度, 位置, 圧力。NS方程式の粘性項を無視。半教師あり学習で使われている手法をloss(推定速度のダイバージェンス)に導入。これにより収束性が相当改善(入れないと収束しない)。計算速度的…
-
## 一言でいうと
文字レベルの畳み込みニューラルネットワークをテキスト分類に使った話。シソーラスを使ってテキスト中の単語を同義語で置換することでデータを増やしている。比較は、伝統的な手法としてbow、bag-of-ngram、bag-of-means、Deep Learning手法として、単語ベースのCNN、LSTMを対象に行っている。8つのデータセットを作成してベースの手法と比較した結果、い…
-
Suggested list of courses would be:
- An introduction to deep learning **
- How to train a neural network
- Regularisation in neural networks
- Deep Bayesian neural networks
- Conv…
-
Hi,
Thank you for your great contribution to science.
I have a question and wondering if DESlib can be applied for GCNs or is there any other library similar to DESlib algorithms that they have ex…
-
## 一言でいうと
従来のCNNのような複雑なアーキテクチャを利用せず,CNNの基本的な畳み込み特徴変換プロセスを、モデルアーキテクチャをチューニングせずに改善することを検討
新しい自己校正畳み込みを提示する
### 論文リンク
http://openaccess.thecvf.com/content_CVPR_2020/papers/Liu_Improving_Convolutional…
-
### Author Pages
https://aclanthology.org/people/l/li-zhang/
### Type of Author Metadata Correction
- [X] The author page wrongly conflates different people with the same name.
- [ ] This author ha…
-