Open raki-1203 opened 2 years ago
문제 1
train data 와 validation data 의 context 는 wiki 에 모두 포함되어 있음
~그러나 retrieval 을 모델이 잘 못함 터무니없는 context 를 추천해줌~ 모델이 accuracy 는 꽤 높았고 train loss 도 잘 줄었다고 생각했는데 ~생각보다 너무 터무니 없어서 놀랐음~
역시 코드는 문제없었다. 내가 코딩을 잘 못한 것일 뿐.....
학습한 모델 사용하니
적절하게 질문에 다른 context 를 갖고 오는 것을 확인 할 수 있음
질문 하나에 대해서도 빠르게 가져옴 그런데 실제 정답과 비교하는건 아직 코딩을 안해서 정확한지 예시는 지금 못들었지만 상당히 관련된 context 를 뽑아온 것 같아 보인다.
현재는 k=1 인 경우의 train dataset 과 validation dataset 에 있는 모든 question 에 대한 정답 context 가져온 확률
예측한 context 가 정답 context 를 포함할 확률(정확도)
Dense klue/roberta-small encoder 의 경우 k 가 1일때와 2이상일때부터의 시간 초가 3초 정도 차이나는 것 같고 몇개를 가져오든 시간은 비슷
k 가 늘어날수록 question 질문과 관련된 문장을 포함할 확률은 높아지는 걸 확인할 수 있음
TF-IDF 방법으로 가져올 때 k 가 80일때까지 dense 보다 정답 context 를 가져올 확률이 높음
encoder 가 klue/roberta-small 이라서 그런건가? 다른 모델을 쓰면 더 올라갈까? 궁금해졌음
북핵급 도발에 자극받고 갑니다 ><
희락님 이겨라!!
희락님 이겨라!ㅋㅋㅋ
좋은 글 감사합니다. Dense passage retrieval에서 faiss를 적용하게 되면 Sparse보다 빨라질지 궁금하네요ㅎㅎ
train data 와 validation data 의 context 는 wiki 에 모두 포함되어 있음
~그러나 retrieval 을 모델이 잘 못함 터무니없는 context 를 추천해줌~ 모델이 accuracy 는 꽤 높았고 train loss 도 잘 줄었다고 생각했는데 ~생각보다 너무 터무니 없어서 놀랐음~
역시 코드는 문제없었다. 내가 코딩을 잘 못한 것일 뿐.....
학습한 모델 사용하니
적절하게 질문에 다른 context 를 갖고 오는 것을 확인 할 수 있음
질문 하나에 대해서도 빠르게 가져옴 그런데 실제 정답과 비교하는건 아직 코딩을 안해서 정확한지 예시는 지금 못들었지만 상당히 관련된 context 를 뽑아온 것 같아 보인다.
현재는 k=1 인 경우의 train dataset 과 validation dataset 에 있는 모든 question 에 대한 정답 context 가져온 확률
Dense klue/roberta-small encoder 의 경우 k 가 1일때와 2이상일때부터의 시간 초가 3초 정도 차이나는 것 같고 몇개를 가져오든 시간은 비슷
k 가 늘어날수록 question 질문과 관련된 문장을 포함할 확률은 높아지는 걸 확인할 수 있음
TF-IDF 방법으로 가져올 때 k 가 80일때까지 dense 보다 정답 context 를 가져올 확률이 높음
encoder 가 klue/roberta-small 이라서 그런건가? 다른 모델을 쓰면 더 올라갈까? 궁금해졌음