AkihikoWatanabe / paper_notes

たまに追加される論文メモ
https://AkihikoWatanabe.github.io/paper_notes
22 stars 0 forks source link

Simple synthetic data reduces sycophancy in large language models, Jerry Wei+, N/A, arXiv'23 #1038

Open AkihikoWatanabe opened 1 year ago

AkihikoWatanabe commented 1 year ago

URL

AkihikoWatanabe commented 1 year ago

LLMはユーザの好む回答をするように事前学習されるため、prompt中にユーザの意見が含まれていると、ユーザの意見に引っ張られ仮に不正解でもユーザの好む回答をしてしまう問題があることを示した。また、その対策として人工的にユーザの意見と、claimを独立させるように学習するためのデータセットを生成しFinetuningすることで防ぐことができることを示した。

AkihikoWatanabe commented 1 year ago

誤ったユーザの意見を挿入すると、正解できていた問題でも不正解になることを示した。 image

AkihikoWatanabe commented 1 year ago

この傾向は、instruction tuningしている場合、モデルサイズが大きい場合により顕著であることを示した。 image

AkihikoWatanabe commented 1 year ago

imageimage