issues
search
kimcando
/
BoostcampAITech3-PaperReading-Embedding
Boostcamp AI Tech 3rd / Basic Paper reading w.r.t Embedding
13
stars
3
forks
source link
issues
Newest
Newest
Most commented
Recently updated
Oldest
Least commented
Least recently updated
[week 8] 본 논문에서 제안하는 character n-gram을 활용하면 접두사와 접미사에 대한 정보를 알 수 있나요?
#31
HanNayeoniee
closed
2 years ago
1
[week8] 새로운 scoring function에서 Vc의 정체
#30
sujeongim
opened
2 years ago
1
[week 8] 왜 이번 기법도 semantic에서는 성능이 떨어질까요?
#29
kimcando
opened
2 years ago
1
[week 8] 단어의 subword와 특정 단어가 겹칠 때의 embedding 이 겹치면?
#28
kimcando
opened
2 years ago
0
[Week 7] 어떻게 Naive Bayes 와 함께 사용했다는 것일까요?
#27
sujeongim
opened
2 years ago
0
[Week 7] un-regularized L2 linear regression loss의 의미
#26
sujeongim
opened
2 years ago
1
[Week 7] Vocab matrix가 학습단계에서 어떤 방식으로 활용되고 조정되는지 궁금합니다.
#25
greenare
opened
2 years ago
0
[Week 7] 데이터 셋의 편향성이 정말로 없는가?
#24
greenare
opened
2 years ago
1
[Week 7] 목적함수에 log를 취하는 이유
#23
angieKang
closed
2 years ago
1
[week7] 가중치 함수 f(X_ij)의 진짜 기능은..??
#22
sujeongim
opened
2 years ago
0
[week5] TODO
#21
kimcando
closed
2 years ago
6
[week4] paragraph vector 의 크기
#20
kimcando
closed
2 years ago
1
[week4] 평가 지표로 Error rate을 사용한 이유?
#19
sujeongim
opened
2 years ago
1
[week3] 오늘 요약 : hierarchical softmax, NCE,negative sampling, subsampling 좀더 생각해보자.
#18
kimcando
closed
2 years ago
0
[Week3] Numerical Probability는 무엇일까?
#17
sujeongim
closed
2 years ago
2
[week3] Negative sampling 과 subsampling의 차이
#16
kimcando
closed
2 years ago
0
[Week3] Test data set 구성은 어떻게 하는 걸까요? 그리고 test data 자체의 의의가 궁금합니다.
#15
greenare
opened
2 years ago
2
[week3] Noise Contrastive Estimation (NCE)란 무엇일까?
#14
TB2715
closed
2 years ago
5
[week 2] Projection Layers 과 Projection Matrix의 차이
#13
sujeongim
closed
2 years ago
1
[week 2] continuous distributed representation의 의미
#12
HanNayeoniee
closed
2 years ago
1
[week 2] Parallel training과 GPU를 학습에 사용하는 것은 같은 방식일까
#11
HanNayeoniee
closed
2 years ago
1
[week2] Projection Layer가 정확히 뭘까요?
#10
cow-coding
closed
2 years ago
2
[week2] 모델 complexity의 변천사 설명
#9
kimcando
closed
2 years ago
2
[week2] 성능 평가를 위한 Task(질문을 주고 답변하는 task) 수행 절차와 학습 input, output 어떻게 되는것인지?
#8
kimcando
opened
2 years ago
0
[week2] CBOW와 Skip-gram의 syntactic task와 semantic task의 성능 차이 나는 이유가 학습 방식과 어떤 관련이 있을까요?
#7
kimcando
closed
2 years ago
2
[week2] 모델의 강인함이 무슨 말인지 궁금합니다. 그리고 만약 논문의 모델 입력에 noise가 들어가면 어떻게 처리할까요?, 논문에서 나온 모델은 강인한 모델일까요?
#6
kiwon94
closed
2 years ago
4
[week2] hierarchical softmax가 뭘까요?
#5
angieKang
closed
2 years ago
3
[Week2] multiple degrees of similarity를 갖는다는게 무슨 의미일까요?
#4
idj7183
closed
2 years ago
1
[week1] discussion동안 나온 질문
#3
kimcando
closed
2 years ago
1
[week1] loss in average mutual information?
#2
kimcando
closed
2 years ago
1
[week1] word sequence가 길어질 수록 추정해야하는 파라미터가 늘어야하는 것?
#1
kimcando
closed
2 years ago
2