BTK : 가장 전통?적인(오래된), 학습자의 지식 상태를 binary로 표현(비현실적), 각 변수는 단일 개념에 대한 이해 여부를 나타냄(일단 학습되면 절대 잊혀지지 않는다고 가정)
HMM : 학습자가 정답을 맞출 때/틀릴 때 각각 위의 이진 변수를 업데이트하는 방법
Deep learning based model
DKT : 과거 학습 활동을 RNN 기반 hidden layer에 압축
NPA : attention layer가 장착된 Bi-LSTM
EKT : NPA와 동일한 구조 + 문제에 대한 텍스트 설명을 포함하여 지식 추적의 cold start 문제 해결
CKT : 계층적 컨볼루션 연산 적용, 학습 활동 기록에서 learning rate feature를 추출
SAKT : self-attention layer를 활용한 최초의 KT 모델, 각 쿼리는 exercise embedding vector, K,V는 interation embedding vector
SAINT : Stacked self-attention layer(Transformer 구조) 활용, SAKT와 달리 일련의 information of exercise가 Encoder에 공급되고, 일련의 인코더 출력과 해당 응답(responses) 시퀀스가 decoder에 공급되어 모델의 최종 출력 시퀀스를 계산함
SAINT+ : elapsed time(학생이 문제에 응답하는 데 걸리는 시간), lag time(인접한 학습 활동 간 시간 간격) 두가지 특성 임베딩을 통합하여 SAINT 강화
Graph structure
GKT : time series node-level classification으로 knowledge tracing 공식화, 각 지식 개념의 표현 추출(주변 개념의 표현을 집계하는 방식으로)
GIKT : Graph Convolution Network를 KT에 적용
EdNet : 공개 데이터 중 규모가 가장 큼(78만 명의 학생, 1억 1,300만 개 이상의 학습 기록)
paperswithcode
에서 제 눈에 보이는 걸로 몇 개 데려왔습니다!(Greatest, Latest 정렬)