[1] intuition: hidden layer가 많을수록 처음엔 기본적인 feature를 학습하고, 나중의 layer는 복잡한 feature를 학습하게 됨
[2] circuit theory: deep neural network에서는 neuron 몇개만으로 계산할 수 있는데, hidden layer 수를 제한하면 neuron을 매우 많이 써서 계산해야하는 함수들이 존재함
deep NN일 때 더 학습이 잘될 수 있음 (조금만 - neuron 개수 - 학습하면 되니까)
4.5 Building blocks of deep neural netowrks
4.6 Forward and backward propagation
4.7 Parameters vs Hyperparameters
parameter: 딥러닝으로 학습해야 하는 값들 - W, b
hyper parameter: 딥러닝이 파라미터를 학습할 때 영향을 주는 모델 셋팅값들 - learning rate, # iterations, # hidden layers L, # hidden units n^[1], n^[2], choice of activation function, and more!
이 hyper parameter 값을 바꿔가면서 Idea -> code -> experiment cycle 을 계속 도는 것! (It's very empirical process!)
4.8 What does this have to do with the bran?
신경세포와 비슷하다는 analogy를 많이 썼으나, 그 analogy를 고정하면 딥러닝의 neuron과 신경세포는 다른 특징들을 많이 갖고 있기 때문에 그 차이점들이 발견될 때마다 어색해짐 -> 이제는 잘 안쓰임
4.1 Deep L-layer Neural network
Deep neural network: shallow vs deep
Notations
4.2 Forward Propagation in a Deep Network
4.3 Getting your matrix dimensions right
4.4 Why deep representations?
4.5 Building blocks of deep neural netowrks
4.6 Forward and backward propagation
4.7 Parameters vs Hyperparameters
4.8 What does this have to do with the bran?