Open StoryKami opened 2 years ago
recall@10 거의 0.3까지 올라감. Acc는 0.015 수준.
recall 성공 query에 대한 평균 Rank는 약 3. 나쁘지 않음.
edge weight를 recipe <-> ingred = w1, recipe <-> label = w2로 놓고, w1, w2를 [((1,1), (1,2), (1,4), (1,8), (2,1), (4,1), (8,1))]로 주고 실험 진행. depth는 20까지.
Accuracy는 약 6%대로 그렇게 높지는 X. But, recall@5와 avg rank를 보면, 약 80%의 추천 결과가 상위 5개 내에서 정답을 가지고 있고, 이 중 평균 1.9위 즈음에서 정답이 나타남.
보편적으로 좋아보이는 건 ingred weight/label weight = 0.5인 모델. 즉, label에 두 배정도 힘을 실어준 그래프가 괜찮아보임.
위의 CLF task와 동일한 세팅. 결과는 다음과 같음.
Recall@10 결과
Recall은 ingredient에 가중치를 높인 그래프일수록 성능이 안좋음
Accuracy 결과
Accuracy는 ingred weight : label weight = 1:2일 때 최적
Avg Rank 결과
Avg rank는 오히려 ingred에 가중치가 높을 때 더 좋긴 함.
전체적으로 ingred weight : label weight = 1:2인 모델이 좋아보임
Accuracy 계산 시, 상위 10개 item 중 무작위 하나를 골라 계산하던 문제가 있었음.
이를 수정하고 재평가 진행. 결과는 아래와 같음.
대략 0.6~0.7 사이의 값.
1_2_depth6: 높은 recall@10 & 높은 recall_rank 1_4_depth4: 높은 acc * 높은 recall_rank 1_8_depth4: 최고 acc after depth 2 1_8_depth2: 최고 acc of all time
1_8_depth4: 최고 f1 after depth 2 1_8_depth2: 최고 f1 of all time
그래프 기반 모델
인접 행렬 사용하여 그래프 기반으로 탐색 + 점수 누적
성능
completion task
recall과 map 수치가 거의 0.
모델 검증이 필요함.
-->recall, map 계산에 오류 존재.