-
```
What steps will reproduce the problem?
--Using the python word2vec module in ipython. Loaded the model from
GoogleNews-vectors-negative300.bin using the command:
model = word2vec.load("~/Download…
-
```
What steps will reproduce the problem?
--Using the python word2vec module in ipython. Loaded the model from
GoogleNews-vectors-negative300.bin using the command:
model = word2vec.load("~/Download…
-
```
What steps will reproduce the problem?
--Using the python word2vec module in ipython. Loaded the model from
GoogleNews-vectors-negative300.bin using the command:
model = word2vec.load("~/Download…
-
Hi Wuwei,
Thanks for sharing the code and learned from your code! I have a small question below:
I found that for other models you use `from torchtext.vocab import load_word_vectors` to load pre…
-
Did a swap of the nouns in Pride and Prejudice with their closest match from a word2vec model trained on all of Jane Austen's text.
Project: http://www.ghostweather.com/files/word2vecpride/
Blog post…
-
Hi,
i am trying your software on the kallisto branch (which seems very promising) and have a couple of questions:
- at the moment, the need to build and load in memory a kallisto index for train…
-
## 一言でいうと
学習済み機械翻訳モデルのEncoderを用いることで、単語だけでなく(単語ではWord2Vecのような分散表現がよく用いられる)文脈の転移学習を行おうという研究。入力に単語・文脈それぞれのベクトルを結合したものを用いることで、感情や質問分類、Q&Aといったタスクで効果を確認。
![image](https://user-images.githubuserconten…
-
## 一言でいうと
FastTextの論文。現在の単語表現を獲得するモデルの多くは単語の形態素を無視している。この論文ではこれら形態素を考慮するために各単語を文字ngramで表現し、それらのベクトル表現を学習している。その評価は単語類似度とアナロジータスクで行った。
### 論文リンク
https://arxiv.org/pdf/1607.04606v1.pdf
### 著者/所属…
-
## 一言でいうと
単語ベクトルを学習するためのモデルであるGloVeの論文。グローバルな行列分解のモデルとlocal context windowのモデルを組み合わせてよい単語ベクトルを学習した。評価はアナロジータスクとNERで行っている。
### 論文リンク
http://nlp.stanford.edu/pubs/glove.pdf
### 著者/所属機関
Jeffrey …
-
## 一言でいうと
Skip-gramやGloVeで得た単語ベクトルに対し、WordNetなどの外部知識を用いることで単語ベクトルを洗練する手法を提案。外部知識上で関連する単語を似たベクトルにするために似せたいベクトル間のユークリッド距離を最小化する。意味評価をした結果、一部タスクを除いて性能が向上した。
### 論文リンク
https://arxiv.org/abs/1411.4166…