AkihikoWatanabe / paper_notes

たまに追加される論文メモ
https://AkihikoWatanabe.github.io/paper_notes
17 stars 0 forks source link

Detecting Pretraining Data from Large Language Models, Weijia Shi+, N/A, arXiv'23 #1089

Open AkihikoWatanabe opened 12 months ago

AkihikoWatanabe commented 12 months ago

URL

AkihikoWatanabe commented 12 months ago

実験結果を見るにAUCは0.73-0.76程度であり、まだあまり高くない印象。また、テキストのlengthはそれぞれ32,64,128,256程度。 image