Closed nogawanogawa closed 6 months ago
近年ではLLMをソフトウェアフレームワークのコード補完から特定の文書コレクションの質問応答など、特殊化されたドメインで採用される動きがある。 このような状況下では、与えられた文書集合に基づく精度を最大化することが主な目標となる。
このような状況下では、RAGやfine tuningが有望な手法となっている。
概念RAFTのfine tuning時の学習の概念図
学習に使用するデータセット
distractorsを含んで学習したほうが、うまく回答できるようになることを示唆している
特にtest時に複数件のreferenceを取る際には、今回の手法が有効
論文URL
https://arxiv.org/abs/2403.10131
著者
Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez
会議
?
背景
近年ではLLMをソフトウェアフレームワークのコード補完から特定の文書コレクションの質問応答など、特殊化されたドメインで採用される動きがある。 このような状況下では、与えられた文書集合に基づく精度を最大化することが主な目標となる。
このような状況下では、RAGやfine tuningが有望な手法となっている。
目的
アプローチ
ひとことメモ
RAGのためのfine tuningの方法論って感じ