XOR 게이트 개념 확실히 이해.
MLP 성능 높이는 batch size, epochs 개념에 대해 이해. 스프린트 챌린지로 실제 성능 높여봄.
어려웠던 부분/더 공부해보고 싶은 것:
MLP 모델보다, keras 의 단순 perceptron 모델의 정확도가 미세하지만 더 높게 나와서, 이 부분에 대해서 무엇이 원인인지 파악 못했음.
1) 데이터가 크지 않고 심플한 문제여서 그런 것인지, 2) xavier 를 사용했어야 하는지, 3) 데이터 정규화 했어야 했는지.
n421과제 중 랜덤포레스트 모델과 기본 perceptron 모델 비교했던 문제에서도 랜덤포레스트 성능이 훨씬 높았음. 이 부분도 위와 비슷한 원인인 것인지 궁금.
느낀 점:
개념을 이해하면서, 바로 손에 익혀야 하는 부트캠프이니만큼 진짜 매순간이 빡센 느낌이지만, 그래도 데이터를 계속 다뤄보는 훈련이 되어서 매우 뿌듯하고 좋음:)
키워드:
배운 것:
어려웠던 부분/더 공부해보고 싶은 것:
느낀 점: