Open jasmine-shin opened 3 years ago
신경망을 구현할 때는 전체 학습 세트를 돌리는데 for문을 사용하지 않고 처리 (cf. m개의 학습 표본을 가진 training set가 있으면, m개의 training example에 대해서 for문을 돌리면서 하나씩 training set를 처리 하는 방법 )
신경망에서 학습하는 방법 : 정방향 전파와 역전파 계산 법을 사용 (forward propagation and backward propagation)
이진 분류란 : 그렇다 / 아니다 2개로 분류, 결과가 ‘그렇다’ 이면 1로 표현하고 ‘아니다’이면 0으로 표현
ex) 고양이다 / 고양이가 아니다.
를 통해 계산하지만, 해당 값은 0과 1 범위를 벗어날 수 있다. 시그모이드 함수를 통해 0과 1사이의 값으로 변환해준다.
J(a,b,c)=3(a+bc) 의 계산 그래프 만드는 과정 u = bc v = a+u J = 3v
vectorization : 코딩에서 명백한 for loop들을 제거하는 기술
예시 ) vectorized 버전은 1.5 ms, loop 의 경우 481 ms (for loop이 300배 정도 더 느림)
다운로드 링크 https://www.anaconda.com/products/individual/download-success
컴퓨터의 계산 효율성을 위해서 'for loop' 을 피한다. 자주 쓰는 넘파이(numpy) 함수: log, abs, maximum, **, zeros
참고 사이트 https://www.boostcourse.org/ai215/joinLectures/86246
1. 이진 분류 Binary Classification
신경망을 구현할 때는 전체 학습 세트를 돌리는데 for문을 사용하지 않고 처리 (cf. m개의 학습 표본을 가진 training set가 있으면, m개의 training example에 대해서 for문을 돌리면서 하나씩 training set를 처리 하는 방법 )
신경망에서 학습하는 방법 : 정방향 전파와 역전파 계산 법을 사용 (forward propagation and backward propagation)
이진 분류란 : 그렇다 / 아니다 2개로 분류, 결과가 ‘그렇다’ 이면 1로 표현하고 ‘아니다’이면 0으로 표현
ex) 고양이다 / 고양이가 아니다.
2. 로지스틱 회귀 Logistic Regression
를 통해 계산하지만, 해당 값은 0과 1 범위를 벗어날 수 있다. 시그모이드 함수를 통해 0과 1사이의 값으로 변환해준다.
3. 경사 하강법 Gradient Descent
4. 파생 Derivatives
4. 계산 그래프 Computation Graph
J(a,b,c)=3(a+bc) 의 계산 그래프 만드는 과정 u = bc v = a+u J = 3v
5. 백터화 Vectorization
vectorization : 코딩에서 명백한 for loop들을 제거하는 기술
예시 ) vectorized 버전은 1.5 ms, loop 의 경우 481 ms (for loop이 300배 정도 더 느림)
다운로드 링크 https://www.anaconda.com/products/individual/download-success
컴퓨터의 계산 효율성을 위해서 'for loop' 을 피한다. 자주 쓰는 넘파이(numpy) 함수: log, abs, maximum, **, zeros
6. 파이썬 브로드캐스팅 broadcating Python