Kosuke-Yamada / paper-survey

1 stars 0 forks source link

Learning to Retrieve In-Context Examples for Large Language Models #10

Closed Kosuke-Yamada closed 6 months ago

Kosuke-Yamada commented 6 months ago

https://aclanthology.org/2024.eacl-long.105

Kosuke-Yamada commented 6 months ago

大規模言語モデルで少数の事例で実行する学習方法であるin-context学習において、高品質な事例を検索して獲得するためのLLM Retriever (LLM-R)を提案。LLM-Rは、BERTエンコーダアーキテクチャであるE5モデルを使用する。訓練時の事例として、学習済みE5を使って最もスコアの高いものを正例、Bottom-Kを負例とし、ELECTRAベースの報酬モデルに基づく損失とInfoNCEに基づく損失を用いて、反復的に訓練。

質問応答のような、問題文と類似したコンテキストを事例として用いる場合、多様性が少ないため、性能低下が見られるが、感情推定や含意推定のような類似した入力だが異なる事例を活用できるタスクで、特に性能向上が見られる。