지난 시간에 우리는 순전파, 역전파, 비용함수(Cost Function)와 손실함수(Loss Function) 등에 대해 알아봤습니다. https://blog.naver.com/dorergiverny/223261551062 [머신러닝/딥러닝] 16. 딥러닝 알아가기 - 활성화 함수 Activation 시그모이드 tanh Leaky ReLU 역전파 backpropagation 손실함수 크로스 엔트로피 우리는 지난 시간에 활성화 함수를 설명하면서 신경망에 왜 비선형 함수를 추가해야 하는지에 대해 알아봤... blog.naver.com 이번 시간에는 역전파(Back Propagation)에서 가장 중요한 경사하강법에 대해 알아보겠습니다. 1. 미분, 편미분 - 일반적으로 수학에서는 변수가 1개인 함수를 다루지만 딥러닝에서는 다변수 함수를 주로 다루게 됩니다. 다른 변수에 영향을 받지 않는 변수를 독립변수, 영향을 받는 변수 를 종속변수라고 하는데, 함수값을 결정할 때 2개 이상의 독립변수...
#backward
#weight
#가중치
#경사하강법
#다변수함수
#변화율
#비용함수
#손실함수
#순전파
#역전파
#연쇄법칙
#체인룰
#편미분
#학습률
#rule
#rate
#chain
#cost
#derivative
#descent
#forward
#function
#gradient
#learning
#local
#loss
#minima
#partial
#propagation
#학습율
원문링크 : [머신러닝/딥러닝] 17. 딥러닝 알아가기 - 경사하강법 Gradient Descent 학습율 학습률 Learning Rate 편미분 chain rule 연쇄법칙 체인룰 손실함수