딥러닝 1단계: 신경망과 딥러닝(4)


딥러닝 1단계: 신경망과 딥러닝(4)

Andrew NG 딥러닝 강의를 듣고 정리합니다. 4. 얕은 신경망 네트워크 input / hidden / output layer for문을 사용하면 비효율적이므로 벡터화를 진행해야한다. Activation functions 활성화 함수에는 아시다시피 많은 종류가 있다. 보통 딥러닝에서는 ReLu 또는 Leaky ReLu 를 많이 사용한다. 대기, 기상분야에서는 tanh도 많이 사용하는 것으로 알고 있다. 데이터에 맞게, 출력값에 맞게 적절하게 상황에 맞게 사용하면 좋다. 이진분류의 출력층에서는 Sigmoid를 사용한다. 혹시 은닉층에서 뭘 써야될지 고민이라면 ReLu를 사용한느 것이 좋습니다. 우선 ReLu는 Sigmoid나 tanh보다 빠르게 학습이 가능하다. 물론 케바케 학습을 느리게 하는 원..........



원문링크 : 딥러닝 1단계: 신경망과 딥러닝(4)