Open fulfulggg opened 3 hours ago
大規模言語モデル (LLM) は、提供されたコンテキストを誤って表現したり、内部知識を誤って想起したりすることで、不正確な出力を生成する「幻覚」を起こすことがよくあります。最近の研究では、Transformer アーキテクチャ内の特定のアテンションヘッドが、関連する文脈情報を抽出する役割を担っていることが明らかになっており、これらは「検索ヘッド」として知られています。私たちは、これらの検索ヘッドをマスクすると幻覚が誘発され、ベース LLM とマスクされた LLM の出力を対比することで幻覚を減らすことができると仮説を立てました。この目的のために、コンテキストとモデルパラメータにある情報 を増幅する、トレーニング不要の新しいデコード戦略である DeCoRe (Decoding by Contrasting Retrieval Heads) を提案します。DeCoRe は、条件付きエントロピーをガイドとして使用し、ベース LLM とマスクされた LLM の出力を動的に対比することで、潜在的に幻覚的な応答を軽減します。私たちの大規模な実験により、DeCoRe は、要約 (XSum で 18.6% 向上)、指示実行 (MemoTrap で 10.9% 向上)、オープンドメイン質問応答 (NQ-Open で 2.4% 向上、NQ-Swap で 5.5% 向上) など、高い文脈忠実度を必要とするタスクにおいて、パフォーマンスが大幅に向上することが確認されました。
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
以下の新しいラベルが作成され、適用されました:
タイトル: DeCoRe: 検索ヘッドの対比によるデコーディング - 幻覚の軽減に向けて
リンク: https://arxiv.org/abs/2410.18860
概要:
大規模言語モデル (LLM) は、提供されたコンテキストを誤って表現したり、内部知識を誤って想起したりすることで、不正確な出力を生成する「幻覚」を起こすことがよくあります。最近の研究では、Transformer アーキテクチャ内の特定のアテンションヘッドが、関連する文脈情報を抽出する役割を担っていることが明らかになっており、これらは「検索ヘッド」として知られています。私たちは、これらの検索ヘッドをマスクすると幻覚が誘発され、ベース LLM とマスクされた LLM の出力を対比することで幻覚を減らすことができると仮説を立てました。この目的のために、コンテキストとモデルパラメータにある情報 を増幅する、トレーニング不要の新しいデコード戦略である DeCoRe (Decoding by Contrasting Retrieval Heads) を提案します。DeCoRe は、条件付きエントロピーをガイドとして使用し、ベース LLM とマスクされた LLM の出力を動的に対比することで、潜在的に幻覚的な応答を軽減します。私たちの大規模な実験により、DeCoRe は、要約 (XSum で 18.6% 向上)、指示実行 (MemoTrap で 10.9% 向上)、オープンドメイン質問応答 (NQ-Open で 2.4% 向上、NQ-Swap で 5.5% 向上) など、高い文脈忠実度を必要とするタスクにおいて、パフォーマンスが大幅に向上することが確認されました。