[DNN] Affine, softmax, backpropagation


[DNN] Affine, softmax, backpropagation

밑바닥부터 시작하는 딥러닝 책을 보고 정리한 내용입니다. Affine 계층 구현 신경망의 순전파 때 수행하는 행렬의 곱은 기하학에서는 어파인 변환(affine transformation)이라고 한다. 신경망의 순전파에서는 가중치 신호의 총합을 계산하기 위해 행렬의 곱을 사용했다. Y = np.dot(X, W) + B를 계산 그래프로 나타내면 아래와 같다. 이 계산 그래프에서는 변수가 행렬이고 각 변수의 형상을 변수명 위에 표기했다. 역전파를 생각해 보면 행렬을 사용한 역전파도 행렬의 원소마다 전개해보면 스칼라 값을 사용한 계산 그래프와 같은 순서로 생각할 수 있다. 위의 식을 바탕으로 역전파를 계산 그래프로 나타내면 아래와 같다. 각 변수의 형..........

[DNN] Affine, softmax, backpropagation에 대한 요약내용입니다.

자세한 내용은 아래에 원문링크를 확인해주시기 바랍니다.



원문링크 : [DNN] Affine, softmax, backpropagation