Sunwood-ai-labs / Yukihiko

Fusion of Python and GIMP
MIT License
5 stars 4 forks source link

データ津波の力を解き放つ:大規模言語モデルのファインチューニングにおけるデータ評価と選択に関する包括的な調査 #87

Open yukihiko-fuyuki opened 2 months ago

yukihiko-fuyuki commented 2 months ago

タイトル: データ津波の力を解き放つ:大規模言語モデルのファインチューニングにおけるデータ評価と選択に関する包括的な調査

リンク: https://arxiv.org/abs/2408.02085

概要:

大規模言語モデル (LLM) を人間の好みに合わせる上で、インストラクションチューニングは重要な役割を果たします。膨大な量のオープンインストラクションデータセットが存在する一方で、既存のすべてのインストラクションを用いてLLMをナイーブにトレーニングすることは、最適でも実用的でもない可能性があります。最も有益なデータポイントを特定するために、自然言語処理 (NLP) や深層学習の分野では、データ評価と選択の手法が提案されてきました。しかし、インストラクションチューニングの文脈において、どのようなデータ評価指標を採用できるのか、また、それらをどのように選択メカニズムに組み込むことができるのかについては、いまだに知識のギャップが存在します。このギャップを埋めるために、本稿では、特にLLMのインストラクションチューニングのためのデータ評価と選択に関する既存の文献を網羅的にレビューします。適用可能なすべての方法を、品質ベース、多様性ベース、重要度ベースの3つのカテゴリーに体系的に分類し、統一されたきめ細かい分類法を構築します。それぞれのカテゴリーについて、関連する研究の全体像を記述するために、代表的な方法を詳しく説明します。さらに、最新の各手法を比較し、公式に報告されている結果に基づいて、その限界について深く議論します。最後に、未解決の課題をまとめ、今後の研究の有望な方向性を提案します。関連するすべてのコンテンツは https://github.com/yuleiqin/fantastic-data-engineering で公開されています。

yukihiko-fuyuki commented 2 months ago

@yukihiko-fuyuki が以下のラベルを提案し、適用しました:

yukihiko-fuyuki commented 2 months ago

論文要約

「データ津波の力を解き放つ:大規模言語モデルのファインチューニングにおけるデータ評価と選択に関する包括的な調査」 論文要約

背景

本論文の貢献

まとめ

本論文は、LLMのインストラクションチューニングにおけるデータ評価と選択の重要性を示し、今後の研究の指針となる包括的なレビューを提供している。