Open fujiso opened 6 years ago
外部ソース(辞書)から獲得した関連単語ペアを用いた単語分散表現学習,Dict2Vecの提案. 関連する単語のペアが似たベクトルになるように,学習させている. 結果,類義語タスクにおいて,約12.5%の改善が見られた. クラス分類などの別タスクでは同等のパフォーマンスが得られている.
Julien Tissier, Christophe Gravier and Amaury Habrard
論文: http://aclweb.org/anthology/D17-1024 コード: https://github.com/tca19/dict2vec
強弱二つのペアを作成する.
基本はskip gramと同じ. 目的関数に次の二つの項を導入する.(式は割愛)
Positive Sampling 強弱ペアが似たようなベクトルになるようにする. (特に,強ペアがより近くなるようにする)
Selective Negative Sampling ペアでないものを負例として,遠くなるように学習. randomで取ってくる普通のNegative Samplingよりも良い?
概要
外部ソース(辞書)から獲得した関連単語ペアを用いた単語分散表現学習,Dict2Vecの提案. 関連する単語のペアが似たベクトルになるように,学習させている. 結果,類義語タスクにおいて,約12.5%の改善が見られた.
クラス分類などの別タスクでは同等のパフォーマンスが得られている.
著者
Julien Tissier, Christophe Gravier and Amaury Habrard
リンク
論文: http://aclweb.org/anthology/D17-1024
コード: https://github.com/tca19/dict2vec
貢献
手法
辞書
強弱二つのペアを作成する.
お互いの定義文に出現する
(ただし,事前学習した分散表現で,お互いの近い単語が一致していればStrong pairsに)
モデル
基本はskip gramと同じ.
目的関数に次の二つの項を導入する.(式は割愛)
Positive Sampling 強弱ペアが似たようなベクトルになるようにする. (特に,強ペアがより近くなるようにする)
Selective Negative Sampling ペアでないものを負例として,遠くなるように学習. randomで取ってくる普通のNegative Samplingよりも良い?
実験
Future work