cfiken / paper-reading

34 stars 3 forks source link

[2019] Plug and Play Language Models: A Simple Approach to Controlled Text Generation #122

Open cfiken opened 3 years ago

cfiken commented 3 years ago

0. 論文

タイトル Plug and Play Language Models: A Simple Approach to Controlled Text Generation
リンク https://arxiv.org/abs/1912.02164
著者 Sumanth Dathathri, Andrea Madotto, Janice Lan, Jane Hung, Eric Frank, Piero Molino, Jason Yosinski, Rosanne Liu (UberAI)
投稿日付 ICLR2020

1. どんなもの?

テキスト生成の方向性をコントロールする手法である Plug and Play Language Model (PPLM) を提案。通常は大きな言語モデルの生成をある方向に誘導するには、そのドメインのデータを用意して finetuning したり、それ用のアーキテクチャを追加することが必要になるが、その場合方向性のターゲットが増えた場合に再学習が必要になる。 PPLM では、大きな言語モデル (GPT-2を使用) のパラメータなどは変えず、方向性のターゲット (Positive/Negative だったり、特定の話題カテゴリだったり)についての小さな分類器を用いて生成を調整するため、言語モデル部分の再学習は必要ない。 実験にて、特定の方向性に生成をコントロールできること、コントロールさせても言語が壊れないことを確認した。

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

イメージ図 (Fig. 1) スクリーンショット 2021-03-18 23 56 59

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?