[머신러닝/딥러닝] 21. 딥러닝 알아가기 정규화 표준화 기울기 소실 gradient vanishing 하이퍼 파라미터 hyperparameter 드롭아웃 dropout epoch


[머신러닝/딥러닝] 21. 딥러닝 알아가기 정규화 표준화 기울기 소실 gradient vanishing 하이퍼 파라미터 hyperparameter 드롭아웃 dropout epoch

지난 시간에 우리는 딥러닝의 역사와 크로스 엔트로피, Softmax 에 대해 알아봤습니다. https://blog.naver.com/dorergiverny/223274050185 [머신러닝/딥러닝] 20. 딥러닝 알아가기 - 정보량 엔트로피 크로스 엔트로피 cross entropy 확률 불확실성 one hot encoding softmax MSE 최소제곱법 우리는 지난 시간에 딥러닝의 역사, One Hot Encoding 그리고 Softmax에 대해 알아봤습니다. https://b... blog.naver.com 이번에는 몇가지 기본 이론을 더 알아보겠습니다. 1. 정규화(Normalization)와 표준화(Standardization) 이전에 우리는 아래와 같은 집값 예시를 통해 건축연도와 집의 넓이가 있다고 가정할 때 건축연도는 2002 ~ 2023년으로 숫자 단위가 크고 범위가 큰 반면 집의 넓이는 18~32평으로 단위가 크지 않습니다. 이 데이터를 그대로 학습에 활용할 경우 ...


#deep #그리드탐색 #기울기소실 #드롭아웃 #랜덤탐색 #베이지안 #손실함수 #스케일러 #시그모이드 #앙상블 #정규화 #표준화 #하이퍼파라미터 #학습률 #vanishing #SVM #dropout #epoch #gradient #hyperparameter #learning #learningrate #lossfunction #machine #normalization #scaler #scaling #sigmoid #standardization #훈련반복횟수

원문링크 : [머신러닝/딥러닝] 21. 딥러닝 알아가기 정규화 표준화 기울기 소실 gradient vanishing 하이퍼 파라미터 hyperparameter 드롭아웃 dropout epoch