-
https://virtual2023.aclweb.org/paper_P2119.html
-
## 一言でいうと
BERTに知識グラフ(構造知識)を組み込む研究。Word Pieceの表現を線形変換=>メンションスパン分集めてpooling=>スパン間でSelf-Attention=>候補エンティティ表現の重み付き平均をとりスパン表現に加算=>Word PieceのSelf-Attention時にこれを参照、という流れ。
![image](https://user-images…
-
As per today's SIG CNCF meeting, it would be awesome if we could give an entry point to the observability projects we represent.
Overall the goal would be to improve the user world, especially new …
-
Hi, this might be a stupid question, but during a project that I am working on, I used Holoclean for some data repair task. I found that, however, there's no documentation on how external knowledge (l…
-
## 一言でいうと
BERT(#959)の中に関係知識が蓄積されていることを実験で確認した研究。Fact関係(a is b)は高い精度で推論できた一方、1:多・多:多の推論精度は低かったという結果。転移学習なしBERT vs 教師あり+関係推定特化モデルでprecision@10が57.1% vs 63.5%となかなかの精度。
### 論文リンク
https://arxiv.o…
-
```
-
```
Original issue reported on code.google.com by `shin...@gmail.com` on 14 Mar 2007 at 9:42
-
## 一言でいうと
CNNで知識グラフのリンクを予測する(エンティティと関連から、関連先エンティティを予測する)という試み。適用自体はストレートで、それぞれベクトル化してCNNで扱いやすいよう2次元にreshpeして畳み込み、潜在表現にしたのち候補の全エンティティとの比較を同時に行う
![image](https://user-images.githubusercontent.com/…
-
Hello,
First off, I'd like to express my appreciation for this great package you've developed. I'm in the process of testing a scenario where I evaluate the quality of generated summaries based on …
-
**Coursework content**
Look at the success view for this week:
https://curriculum.codeyourfuture.io/html-css/sprints/1/success/
These are learning objectives. Check off the things you have achieved …
-