nogawanogawa / paper_memo

4 stars 0 forks source link

RAFT: Adapting Language Model to Domain Specific RAG #108

Closed nogawanogawa closed 6 months ago

nogawanogawa commented 6 months ago

論文URL

https://arxiv.org/abs/2403.10131

著者

Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez

会議

?

背景

近年ではLLMをソフトウェアフレームワークのコード補完から特定の文書コレクションの質問応答など、特殊化されたドメインで採用される動きがある。 このような状況下では、与えられた文書集合に基づく精度を最大化することが主な目標となる。

このような状況下では、RAGやfine tuningが有望な手法となっている。

image

目的

アプローチ

image

ひとことメモ

RAGのためのfine tuningの方法論って感じ

nogawanogawa commented 6 months ago

背景

近年ではLLMをソフトウェアフレームワークのコード補完から特定の文書コレクションの質問応答など、特殊化されたドメインで採用される動きがある。 このような状況下では、与えられた文書集合に基づく精度を最大化することが主な目標となる。

このような状況下では、RAGやfine tuningが有望な手法となっている。

image
nogawanogawa commented 6 months ago

目的

アプローチ

nogawanogawa commented 6 months ago

RAFT : Retrieval Augmented Fine Tuning

概念RAFTのfine tuning時の学習の概念図

image

学習に使用するデータセット

image
nogawanogawa commented 6 months ago

性能評価

データセット

baseline

RAG performance

image

CoTの有無

image

test oracleの割合

image

distractorsを含んで学習したほうが、うまく回答できるようになることを示唆している

image

特にtest時に複数件のreferenceを取る際には、今回の手法が有効