우리는 지난 시간에 활성화 함수를 설명하면서 신경망에 왜 비선형 함수를 추가해야 하는지에 대해 알아봤습니다. https://blog.naver.com/dorergiverny/223258616510 [머신러닝/딥러닝] 15. 딥러닝 알아가기 - 신경망에 비선형 함수 사용 이유 활성화 학습 과정 레이블 정답 label 방법 비용함수 cost function Semantic 우리는 지난 시간에 딥러닝 기초 중 뉴런과 신경망, 퍼셉트론에 대해 알아봤습니다. https://blog.naver.co... blog.naver.com 이번에는 지난 시간에 이어서 활성화 함수부터 알아보겠습니다. 1. 활성화 함수 (Activation Function) 1) 시그모이드 (Sigmoid) - 입력값을 0~1 사이의 값으로 변환하여 출력하는 특징을 가짐(단층 퍼셉트론에 사용) - Logistic Regression, binary classification 등에 사용됨 (로지스틱 함수라고도 함) - 미분 ...
#activation
#rule
#sigmoid
#tanh
#기울기
#딥러닝
#머신러닝
#순전파
#시그모이드
#역전파
#함수
#ReLU
#propagation
#활성화
#chain
#backpropagation
#forward
#function
#gradient
#Leaky
#크로스
#엔트로피
#Cost
#Descent
#손실함수
#비용함수
#목적함수
#entropy
#epoch
#Loss
원문링크 : [머신러닝/딥러닝] 16. 딥러닝 알아가기 - 활성화 함수 Activation 시그모이드 tanh Leaky ReLU 역전파 backpropagation 손실함수 크로스 엔트로피