에 보시면, weights 가 사전형으로 되어있습니다.
파이썬 파일에서 코드 구현할때 그게 사전형이 아닌 일반 행렬로 알고 구현했는데,
그래서 이 부분에서 에러가 납니다. 그럼 파이썬 파일을 사전형 입력으로 고쳐야 하는지요?
또 하나는, loss 파일을 구하는 식이 정확하게 주어지지 않은 상태에서, 저 값이 정답과 정확히 일치해야 한다는 건 좀 납득하기 어렵네요.. log 함수 안에 0이 들어가지 않게 구현하는 방법도 한가지가 아닐수도 있지 않나요...
L2 regularization 에 1/2 곱하고 또 regularization factor를 곱하고 하는 것이 맞나요? loss 값이 미세하게 계속 차이가 나서 질문드립니다.
쥬피터노트북 파일에 cross-entropy 구하는 파트에서
cross_entropy_loss(temp_score0, temp_target0, weights, reg_term)
에 보시면, weights 가 사전형으로 되어있습니다. 파이썬 파일에서 코드 구현할때 그게 사전형이 아닌 일반 행렬로 알고 구현했는데, 그래서 이 부분에서 에러가 납니다. 그럼 파이썬 파일을 사전형 입력으로 고쳐야 하는지요? 또 하나는, loss 파일을 구하는 식이 정확하게 주어지지 않은 상태에서, 저 값이 정답과 정확히 일치해야 한다는 건 좀 납득하기 어렵네요.. log 함수 안에 0이 들어가지 않게 구현하는 방법도 한가지가 아닐수도 있지 않나요... L2 regularization 에 1/2 곱하고 또 regularization factor를 곱하고 하는 것이 맞나요? loss 값이 미세하게 계속 차이가 나서 질문드립니다.