Sumanth Dathathri, Andrea Madotto, Janice Lan, Jane Hung, Eric Frank, Piero Molino, Jason Yosinski, Rosanne Liu (UberAI)
投稿日付
ICLR2020
1. どんなもの?
テキスト生成の方向性をコントロールする手法である Plug and Play Language Model (PPLM) を提案。通常は大きな言語モデルの生成をある方向に誘導するには、そのドメインのデータを用意して finetuning したり、それ用のアーキテクチャを追加することが必要になるが、その場合方向性のターゲットが増えた場合に再学習が必要になる。
PPLM では、大きな言語モデル (GPT-2を使用) のパラメータなどは変えず、方向性のターゲット (Positive/Negative だったり、特定の話題カテゴリだったり)についての小さな分類器を用いて生成を調整するため、言語モデル部分の再学習は必要ない。
実験にて、特定の方向性に生成をコントロールできること、コントロールさせても言語が壊れないことを確認した。
0. 論文
1. どんなもの?
テキスト生成の方向性をコントロールする手法である Plug and Play Language Model (PPLM) を提案。通常は大きな言語モデルの生成をある方向に誘導するには、そのドメインのデータを用意して finetuning したり、それ用のアーキテクチャを追加することが必要になるが、その場合方向性のターゲットが増えた場合に再学習が必要になる。 PPLM では、大きな言語モデル (GPT-2を使用) のパラメータなどは変えず、方向性のターゲット (Positive/Negative だったり、特定の話題カテゴリだったり)についての小さな分類器を用いて生成を調整するため、言語モデル部分の再学習は必要ない。 実験にて、特定の方向性に生成をコントロールできること、コントロールさせても言語が壊れないことを確認した。
2. 先行研究と比べてどこがすごい?
3. 技術や手法のキモはどこ?
イメージ図 (Fig. 1)
4. どうやって有効だと検証した?
5. 議論はある?
6. 次に読むべき論文は?