[머신러닝/딥러닝] 16. 딥러닝 알아가기 - 활성화 함수 Activation 시그모이드 tanh Leaky ReLU 역전파 backpropagation 손실함수 크로스 엔트로피


[머신러닝/딥러닝] 16. 딥러닝 알아가기 - 활성화 함수 Activation 시그모이드 tanh Leaky ReLU 역전파 backpropagation 손실함수 크로스 엔트로피

우리는 지난 시간에 활성화 함수를 설명하면서 신경망에 왜 비선형 함수를 추가해야 하는지에 대해 알아봤습니다. https://blog.naver.com/dorergiverny/223258616510 [머신러닝/딥러닝] 15. 딥러닝 알아가기 - 신경망에 비선형 함수 사용 이유 활성화 학습 과정 레이블 정답 label 방법 비용함수 cost function Semantic 우리는 지난 시간에 딥러닝 기초 중 뉴런과 신경망, 퍼셉트론에 대해 알아봤습니다. https://blog.naver.co... blog.naver.com 이번에는 지난 시간에 이어서 활성화 함수부터 알아보겠습니다. 1. 활성화 함수 (Activation Function) 1) 시그모이드 (Sigmoid) - 입력값을 0~1 사이의 값으로 변환하여 출력하는 특징을 가짐(단층 퍼셉트론에 사용) - Logistic Regression, binary classification 등에 사용됨 (로지스틱 함수라고도 함) - 미분 ...


#activation #rule #sigmoid #tanh #기울기 #딥러닝 #머신러닝 #순전파 #시그모이드 #역전파 #함수 #ReLU #propagation #활성화 #chain #backpropagation #forward #function #gradient #Leaky #크로스 #엔트로피 #Cost #Descent #손실함수 #비용함수 #목적함수 #entropy #epoch #Loss

원문링크 : [머신러닝/딥러닝] 16. 딥러닝 알아가기 - 활성화 함수 Activation 시그모이드 tanh Leaky ReLU 역전파 backpropagation 손실함수 크로스 엔트로피